在ModelArts Studio(MaaS)模型广场查看预置模型
ModelArts Studio大模型即服务平台提供了丰富的开源大模型,在“模型广场”页面可以查看。模型详情页可以查看模型的详细介绍,根据这些信息选择合适的模型进行训练、推理,接入到企业解决方案中。
前提条件
已注册华为账号并开通华为云,详情请见注册华为账号并开通华为云。
访问模型广场
- 登录ModelArts Studio(MaaS)控制台,在顶部导航栏选择目标区域。
- 在左侧导航栏,单击“模型广场”。
- 在“模型广场”页面的“筛选”区域,按需选择模型类型、上下文长度、高级能力、模型系列和支持作业进行筛选,或者直接输入模型名称进行搜索。
关于模型系列的介绍,请参见模型介绍。
表1 模型筛选说明 筛选项
说明
模型类型
支持按照文本生成、图像理解、重排序和向量模型进行筛选。
如果您同时选择了多个模型类型,页面会显示所选模型类型的合集。
上下文长度
支持按照64K、32K、16K、≤8K进行筛选。
如果您同时选择了多个上下文长度,页面会显示所选上下文长度的模型合集。
高级能力
支持按照深度思考等多个能力进行筛选。
模型系列
支持按照DeepSeek、通义千问2、通义千问2.5、ChatGLM、Deepseek Coder等进行筛选。不同地域支持的模型系列不同,详情请参见模型介绍。
如果您同时选择了多个模型,页面会显示所选模型系列的合集。
支持作业
支持按照部署、调优进行筛选。
如果您同时选择了多个支持作业,页面会显示所选支持作业的模型交集,例如选择部署和调优,页面会显示同时支持部署与调优的模型。
- 在“模型广场”页面的目标模型卡片,按需选择以下操作。
- 鼠标悬浮于模型卡片,可以看到操作按钮,您可以按需单击“模型调优”、“模型部署”等。
模型卡片上只显示该模型支持的操作。不同模型显示的操作可能不同,请以实际环境为准。
- 在线体验:
- 未开通模型服务:单击“在线体验”,会弹出“开通模型服务”对话框,请仔细查看相关信息,勾选“我已阅读并同意上述说明,及《ModelArts Studio 服务声明》”,单击“确认开通”,跳转至“文本对话”页面进行在线体验。更多信息,请参见在ModelArts Studio(MaaS)体验文本对话。
- 已开通模型服务:单击“在线体验”,会跳转至“文本对话”页面进行在线体验。
- 模型部署:单击“模型部署”,会跳转至“部署模型服务”页面。具体操作,请参见使用ModelArts Studio(MaaS)部署模型服务。
- 推理调用:
- 未开通模型服务:单击“推理调用”,会弹出“调用说明”面板,在“开通模型服务”区域,仔细查看相关信息,勾选“我已阅读并同意上述说明,及《ModelArts Studio 服务声明》”,单击“立即开通”,参照“调用模型区域”信息,调用模型服务。更多信息,请参见调用ModelArts Studio(MaaS)部署的模型服务。
- 已开通模型服务:单击“推理调用”,会弹出“调用说明”面板,参照“调用模型区域”信息,调用模型服务。
- 模型调优:单击“模型调优”,会跳转至“创建调优作业”页面。具体操作,请参见使用ModelArts Studio(MaaS)调优模型。
- 在线体验:
- 单击模型卡片,进入模型详情页面,可以查看模型的介绍、基本信息和版本信息等。在页面右上角,您可以按需单击“模型部署”、“模型调优”等操作,使用模型进行训推。
- 页面右上角只显示该模型支持的操作。不同模型显示的操作可能不同,请以实际环境为准。
- 如果模型涉及计费,基本信息页签会显示计费的相关信息。
- 鼠标悬浮于模型卡片,可以看到操作按钮,您可以按需单击“模型调优”、“模型部署”等。
模型介绍
下表列举了ModelArts Studio大模型即服务平台支持的模型清单。关于模型的详细信息请在“模型详情”页面查看。
模型系列 |
模型类型 |
应用场景 |
支持语言 |
支持地域 |
模型介绍 |
|
---|---|---|---|---|---|---|
DeepSeek |
DeepSeek-R1 |
文本生成 |
对话问答、文本生成推理 |
中文、英文 |
西南-贵阳一、华北-乌兰察布一、华东二 |
深度求索(DeepSeek)自主研发的DeepSeek-R1模型,基于核心技术突破,具备超长上下文理解与高效推理能力,支持多模态交互及API集成,可驱动智能客服、数据分析等场景应用,以行业领先的性价比加速企业智能化升级。 |
DeepSeek-V3 |
文本生成 |
对话问答、翻译 |
中文、英文 |
西南-贵阳一、华北-乌兰察布一 |
DeepSeek-V3是一个强大的混合专家 (MoE) 语言模型,开创了一种无辅助损失的负载平衡策略,并设置了多Token预测训练目标以获得更强大的性能。 |
|
DeepSeek-R1-Distill-Qwen-14B |
文本生成 |
对话问答、文本生成推理 |
中文、英文 |
西南-贵阳一、华北-乌兰察布一 |
通过DeepSeek-R1的输出,蒸馏了Qwen-14B, 使得模型在多项能力上实现了对标OpenAI o1-mini的效果。DeepSeek-R1在数学、代码和推理任务中实现了与OpenAI-o1相当的性能。 |
|
DeepSeek-R1-Distill-Qwen-32B |
文本生成 |
对话问答、文本生成推理 |
中文、英文 |
西南-贵阳一、华北-乌兰察布一 |
通过DeepSeek-R1的输出,蒸馏了Qwen-32B, 使得模型在多项能力上实现了对标OpenAI o1-mini的效果。DeepSeek-R1在数学、代码和推理任务中实现了与OpenAI-o1相当的性能。 |
|
ChatGLM |
GLM-4 |
文本生成 |
对话问答、长文本推理、代码生成 |
中文、英文 |
西南-贵阳一、华东二 |
GLM-4-9B是智谱AI推出的最新一代预训练模型GLM-4系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B及其人类偏好对齐的版本GLM-4-9B-Chat均表现出较高的性能。 |
ChatGLM3 |
文本生成 |
对话问答、数学推理、代码生成 |
中文、英文 |
西南-贵阳一、华东二 |
ChatGLM3-6B是ChatGLM系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B引入了更强大的基础模型和更完整的功能支持。 |
|
Deepseek-Coder |
文本生成 |
对话问答、文本推理 |
中文、英文 |
西南-贵阳一、华东二 |
Deepseek Coder由一系列代码语言模型组成,每个模型都从头开始在2T标记上进行训练,其中87%为代码,13%为英文和中文的自然语言。在编码能力方面,DeepSeek Coder在多种编程语言和各种基准测试中均在开源代码模型中取得了较高性能。 |
|
Yi |
文本生成 |
代码生成、数学推理、对话问答 |
中文、英文 |
西南-贵阳一、华东二 |
Yi系列模型是01.AI从零训练的下一代开源大语言模型。Yi系列模型是一个双语的语言模型,在3T多语言语料库上训练而成,是全球最强大的大语言模型之一。Yi系列模型在语言认知、常识推理、阅读理解等方面表现优异。 |
|
通义千问 |
Qwen |
文本生成 |
对话问答、智能创作、文本摘要、翻译、代码生成、数学推理 |
中文、英文 |
西南-贵阳一、华东二 |
通义千问-14B(Qwen-14B)是阿里云研发的通义千问大模型系列的140亿参数规模的模型。通义千问-72B(Qwen-72B)是阿里云研发的通义千问大模型系列的720亿参数规模的模型。通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。 |
Qwen Image |
图像生成 |
文生图 |
中文、英文 |
西南-贵阳一 |
Qwen-Image的图像生成与编辑通用能力强劲,在文本渲染的场景下表现出色。 |
|
QwQ |
文本生成 |
对话问答 |
英文 |
西南-贵阳一 |
QwQ是通义千问系列的推理模型。与传统的指令调优模型相比,具有思维和推理能力的QwQ在下游任务(尤其是疑难问题)中可以实现显著的性能提升。 |
|
通义千问1.5 |
文本生成 |
代码生成、数学推理、对话问答 |
中文、英文 |
西南-贵阳一、华东二 |
Qwen1.5是阿里云研发的通义千问大语言模型系列,包括不同模型大小的基础语言模型和对话聊天模型,可适应多种自然语言和代码。Qwen1.5版本开源了包括0.5B、1.8B、4B、7B、14B和72B在内的六种大小的基础和聊天模型,同时,也开源了量化模型。不仅提供了Int4和Int8的GPTQ模型,还有AWQ模型,以及GGUF量化模型。 |
|
通义千问2 |
Qwen2 |
文本生成 |
多语言处理、数学推理、对话问答 |
中文、英文 |
西南-贵阳一、华东二 |
Qwen2是阿里云研发的Qwen系列的新的大型语言模型。对于Qwen2,发布了许多基本语言模型和指令调整的语言模型,参数范围从5亿到720亿,包括专家混合模型,并在一系列针对语言理解,语言生成,多语言能力,编码,数学,推理等的基准测试中表现出对专有模型的竞争力。 |
Qwen2-VL |
图像理解 |
图像理解、对话问答 |
中文、英文 |
西南-贵阳一、华东二 |
Qwen2-VL是阿里云推出的具有70亿参数的大型视觉语言模型,专注于图像和文本的多模态理解和生成任务。 |
|
通义千问2.5 |
Qwen2.5 |
文本生成 |
多语言处理、数学推理、对话问答 |
中文、英文 |
西南-贵阳一、华东二 |
Qwen2.5是阿里云研发的Qwen系列的新的大型语言模型。对于Qwen2.5,发布了许多基本语言模型和指令调整的语言模型,参数范围从5亿到720亿。 |
Qwen2.5-VL |
图像理解 |
图像理解、对话问答 |
中文、英文 |
西南-贵阳一 |
通义千问2.5-VL是阿里云通义千问团队开源的多模态视觉语言模型,具备强大的视觉和语言理解能力。 |
|
通义千问3 |
Qwen3 |
文本生成 |
对话问答 |
中文、英文 |
西南-贵阳一 |
Qwen3是Qwen团队研发的大语言模型和大型多模态模型系列,在大规模语言和多模态数据上进行预训练,通过高质量的数据进行后期微调。 |
通义万相 |
Wan2.1-T2V |
视频生成 |
文字生成视频 |
中文、英文 |
西南-贵阳一 |
Wan2.1-T2V系列模型在开源和闭源模型中建立了新的SOTA性能基准。在生成高质量且具有显著动态效果的视觉内容方面表现出色,支持中文和英文文本输入并支持480P和720P分辨率的视频生成。 |
Wan2.1-I2V |
视频生成 |
图片生成视频 |
中文、英文 |
西南-贵阳一 |
Wan2.1模型在生成高质量、有显著动态效果的视频方面表现优异,支持中文和英文。 |
|
Stable Diffusion |
SDXL |
文生图 |
文字生成图像 |
中文、英文 |
西南-贵阳一 |
SDXL(Stable Diffusion XL)是Stability AI开发的文生图模型,以高分辨率、强细节生成能力为核心,支持复杂场景创作。 |
Kimi |
Kimi-K2 |
文本生成 |
对话问答 |
中文、英文 |
西南-贵阳一 |
Kimi K2是一款最先进的混合专家(MoE)语言模型,拥有320亿激活参数和1万亿总参数。通过Muon优化器训练,Kimi K2在前沿知识、推理和编程任务上表现出色,同时在智能体能力方面进行了精心优化。 |
模型分为量化模型和非量化模型,其中,量化模型又包括SmoothQuant-W8A8和AWQ-W4A16两种。
- AWQ-W4A16量化模型可以由非量化模型压缩后生成,也可以直接使用开源AWQ权重。
- SmoothQuant-W8A8量化模型只能由非量化模型压缩生成。
ModelArts Studio大模型即服务平台已预置非量化模型与AWQ-W4A16量化模型的模型模板。
- 非量化模型可以支持调优、压缩、部署等操作。
- 量化模型仅支持部署操作。当需要获取SmoothQuant-W8A8量化模型时,则可以通过对非量化模型进行模型压缩获得。