在模型广场查看预置模型
MaaS平台提供了丰富的开源大模型,在“模型广场”页面可以查看。模型详情页可以查看模型的详细介绍,根据这些信息选择合适的模型进行训练、推理,接入到企业解决方案中。
前提条件
已注册华为账号并开通华为云,详情请见注册华为账号并开通华为云。
计费说明
- 调用预置服务:不同类型的模型计费不同,计费详情请参见MaaS预置模型服务计费项。
- 调用自行部署的模型服务:按算力计费,计费详情请参见计算资源计费项。
模型广场介绍
在模型广场,您可以查看MaaS首推的预置模型类型及模型信息,也可以查看所有的预置模型及相关信息。不同区域支持的模型可能不同,请以控制台实际界面为准。
- “精选模型”页签,查看MaaS首推的预置模型及相关介绍。
- “全部模型”页签:查看MaaS支持的所有预置模型及相关介绍。
模型介绍
下表列举了MaaS平台支持的模型清单。关于模型的详细信息请在“模型详情”页面查看。
| 模型系列 | 模型类型 | 应用场景 | 支持语言 | 支持地域 | 模型介绍 | |
|---|---|---|---|---|---|---|
| DeepSeek | DeepSeek-V4-Flash | 文本生成 | 对话问答、文本生成推理 | 中文、英文 | 西南-贵阳一 | DeepSeek-V4-Flash是DeepSeek-V4系列的轻量高效版本,在保持1M超长上下文能力的同时,通过更小的模型参数与激活规模,提供更为快捷、经济的API服务。 |
| DeepSeek-R1 | 文本生成 | 对话问答、文本生成推理 | 中文、英文 | 西南-贵阳一、华北-乌兰察布一、华东二 | 深度求索(DeepSeek)自主研发的DeepSeek-R1模型,基于核心技术突破,具备超长上下文理解与高效推理能力,支持多模态交互及API集成,可驱动智能客服、数据分析等场景应用,以行业领先的性价比加速企业智能化升级。 | |
| DeepSeek-V3 | 文本生成 | 对话问答、翻译 | 中文、英文 | 西南-贵阳一、华北-乌兰察布一 | DeepSeek-V3是一个强大的混合专家 (MoE) 语言模型,开创了一种无辅助损失的负载平衡策略,并设置了多Token预测训练目标以获得更强大的性能。 | |
| DeepSeek-V3.1 | 文本生成 | 对话问答 | 中文、英文 | 西南-贵阳一 | DeepSeek-V3.1是一个同时支持思考模式和非思考模式的混合模型,效果与DeepSeek-R1-0528相当,但响应速度更快,且在工具使用方面进行了优化。 | |
| DeepSeek-V3.2 | 文本生成 | 对话问答 | 中文、英文 | 西南-贵阳一 | DeepSeek-V3.2是一款在计算效率与出色推理及代理能力之间实现出色平衡的模型,整体性能达到了GPT-5的水平。 | |
| DeepSeek-R1-Distill-Qwen-14B | 文本生成 | 对话问答、文本生成推理 | 中文、英文 | 西南-贵阳一、华北-乌兰察布一 | 通过DeepSeek-R1的输出,蒸馏了Qwen-14B, 使得模型在多项能力上实现了对标OpenAI o1-mini的效果。DeepSeek-R1在数学、代码和推理任务中实现了与OpenAI-o1相当的性能。 | |
| DeepSeek-R1-Distill-Qwen-32B | 文本生成 | 对话问答、文本生成推理 | 中文、英文 | 西南-贵阳一、华北-乌兰察布一 | 通过DeepSeek-R1的输出,蒸馏了Qwen-32B, 使得模型在多项能力上实现了对标OpenAI o1-mini的效果。DeepSeek-R1在数学、代码和推理任务中实现了与OpenAI-o1相当的性能。 | |
| GLM | GLM-5 | 文本生成 | 推理、编程、智能体任务 | 中文、英文 | 西南-贵阳一 | 与GLM-4.5相比,GLM-5的参数量从355B(激活参数32B)扩展至744B(激活参数40B),预训练数据量也从23T Tokens增加到 28.5T Tokens。此外,GLM-5还集成了DeepSeek稀疏注意力(DSA)机制,在保持长上下文能力的同时大幅降低了部署成本。 GLM-5在各类学术基准测试中相比GLM-4.7实现了显著提升,并在全球所有开源模型中,在推理、编程和智能体任务方面达到顶尖水平,进一步缩小了与前沿闭源模型之间的差距。 |
| GLM-4 | 文本生成 | 对话问答、长文本推理、代码生成 | 中文、英文 | 西南-贵阳一、华东二 | GLM-4-9B是智谱AI推出的最新一代预训练模型GLM-4系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B及其人类偏好对齐的版本GLM-4-9B-Chat均表现出较高的性能。 | |
| GLM-5.1 | 文本生成 | 推理、编程、智能体任务 | 中文、英文 | 西南-贵阳一 | GLM-5.1 是智谱最新旗舰模型,代码能力大大增强,长程任务显著提升,能够在单次任务中持续、自主地工作长达 8 小时,完成从规划、执行到迭代优化的完整闭环,交付工程级成果。 在综合能力与 Coding 能力上,GLM-5.1 整体表现对齐 Claude Opus 4.6,并在长程自主执行、复杂工程优化与真实开发场景中展现出更强的持续工作能力,是构建 Autonomous Agent 与长程 Coding Agent 的理想基座。 | |
| Deepseek-Coder | 文本生成 | 对话问答、文本推理 | 中文、英文 | 西南-贵阳一、华东二 | DeepSeek Coder由一系列代码语言模型组成,每个模型都从头开始在2T标记上进行训练,其中87%为代码,13%为英文和中文的自然语言。在编码能力方面,DeepSeek Coder在多种编程语言和各种基准测试中均在开源代码模型中取得了较高性能。 | |
| Yi | 文本生成 | 代码生成、数学推理、对话问答 | 中文、英文 | 西南-贵阳一、华东二 | Yi系列模型是01.AI从零训练的下一代开源大语言模型。Yi系列模型是一个双语的语言模型,在3T多语言语料库上训练而成,是全球最强大的大语言模型之一。Yi系列模型在语言认知、常识推理、阅读理解等方面表现优异。 | |
| 通义千问 | Qwen | 文本生成 | 对话问答、智能创作、文本摘要、翻译、代码生成、数学推理 | 中文、英文 | 西南-贵阳一、华东二 | 通义千问-14B(Qwen-14B)是阿里云研发的通义千问大模型系列的140亿参数规模的模型。通义千问-72B(Qwen-72B)是阿里云研发的通义千问大模型系列的720亿参数规模的模型。通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。 |
| QwQ | 文本生成 | 对话问答 | 英文 | 西南-贵阳一 | QwQ是通义千问系列的推理模型。与传统的指令调优模型相比,具有思维和推理能力的QwQ在下游任务(尤其是疑难问题)中可以实现显著的性能提升。 | |
| Qwen2 | 文本生成 | 多语言处理、数学推理、对话问答 | 中文、英文 | 西南-贵阳一、华东二 | Qwen2是阿里云研发的Qwen系列的新的大型语言模型。对于Qwen2,发布了许多基本语言模型和指令调整的语言模型,参数范围从5亿到720亿,包括专家混合模型,并在一系列针对语言理解,语言生成,多语言能力,编码,数学,推理等的基准测试中表现出对专有模型的竞争力。 | |
| Qwen2-VL | 图像理解 | 图像理解、对话问答 | 中文、英文 | 西南-贵阳一、华东二 | Qwen2-VL是阿里云推出的具有70亿参数的大型视觉语言模型,专注于图像和文本的多模态理解和生成任务。 | |
| Qwen2.5 | 文本生成 | 多语言处理、数学推理、对话问答 | 中文、英文 | 西南-贵阳一、华东二 | Qwen2.5是阿里云研发的Qwen系列的新的大型语言模型。对于Qwen2.5,发布了许多基本语言模型和指令调整的语言模型,参数范围从5亿到720亿。 | |
| Qwen2.5-VL | 图像理解 | 图像理解、对话问答 | 中文、英文 | 西南-贵阳一 | 通义千问2.5-VL是阿里云通义千问团队开源的多模态视觉语言模型,具备强大的视觉和语言理解能力。 | |
| Qwen3 | 文本生成 | 对话问答 | 中文、英文 | 西南-贵阳一 | Qwen3是Qwen团队研发的大语言模型和大型多模态模型系列,在大规模语言和多模态数据上进行预训练,通过高质量的数据进行后期微调。 | |
| 通义千问Image | Qwen-Image | 图像生成 | 文生图 | 中文、英文 | 西南-贵阳一 | Qwen-Image的图像生成与编辑通用能力强劲,在文本渲染的场景下表现出色。 |
| Qwen-Image-Edit | 图像生成 | 文生图、图像编辑 | 中文、英文 | 西南-贵阳一 | 该模型是Qwen-Image的图像编辑版本,合入了其文本渲染能力,支持精准的图中文字修改。 | |
| 通义万相2.2 | Wan2.2-T2V | 视频生成 | 文字生成视频 | 中文、英文 | 西南-贵阳一 | 该文生视频模型采用混合专家(MoE)架构,视频合成更加稳定,支持了更多样化的风格场景。 |
| Wan2.2-I2V | 视频生成 | 图片生成视频 | 中文、英文 | 西南-贵阳一 | Wan2.2内置丰富的美学数据集,可轻松定制个性化的电影级画面。 | |
| Kimi | Kimi-K2 | 文本生成 | 对话问答 | 中文、英文 | 西南-贵阳一 | Kimi K2是一款最先进的混合专家(MoE)语言模型,拥有320亿激活参数和1万亿总参数。通过Muon优化器训练,Kimi K2在前沿知识、推理和编程任务上表现出色,同时在智能体能力方面进行了精心优化。 |
| Kimi-K2.6 | 文本生成 | 推理、编程、智能体任务 | 中文、英文 | 西南-贵阳一 | Kimi K2.6是Kimi最新最强模型,在通用Agent、代码能力上全面提升,并在多个基准测试中取得行业领先成绩。 | |
| BGE | bge-m3 | 文本向量化 | 文本向量化 | 中文、英文 | 西南-贵阳一 | BGE-M3以其在多语言、多功能和多粒度方面的灵活性而著称。它为超过100种工作语言的语义检索提供了统一的支持,可以同时完成三种常见的检索功能:密集检索、多向量检索和稀疏检索。此外,它还能够处理不同粒度的输入,从短句子到长达8192个Token的长文档。 |
| bge-reranker-v2-m3 | 重排序 | 检索结果再排序 | 中文、英文 | 西南-贵阳一 | 一个轻量级的交叉编码器模型,基于BGE-M3模型开发,具有强大的多语言能力,易于部署,具有快速的推理能力。 | |
| LongCat | LongCat-Flash-Chat | 文本生成 | 对话问答 | 中文 | 西南-贵阳一 | 一个强大的高效语言模型,总参数量为5600亿,采用创新的专家混合(MoE)架构。该模型结合了动态计算机制,根据上下文需求激活186亿至313亿参数(平均约270 亿),优化了计算效率和性能。 |
模型分为量化模型和非量化模型,其中,量化模型又包括SmoothQuant-W8A8和AWQ-W4A16两种。
- AWQ-W4A16量化模型可以由非量化模型压缩后生成,也可以直接使用开源AWQ权重。
- SmoothQuant-W8A8量化模型只能由非量化模型压缩生成。
MaaS平台已预置非量化模型与AWQ-W4A16量化模型的模型模板。
- 非量化模型可以支持调优、部署等操作。
- 量化模型仅支持部署操作。当需要获取SmoothQuant-W8A8量化模型时,则可以通过对非量化模型进行模型压缩获得。
查看预置模型详细信息
模型对比
MaaS支持对比不同模型或者同一模型的不同版本,可同时对比三个模型/版本。
任选以下方式进入模型对比,查看三个模型/版本的模型能力、模型价格、模型限制等区别。相关操作说明参见表2。
- “精选模型”页签:在首推模型区域下方,鼠标悬浮于模型卡片,单击“模型对比”。
- “全部模型”页签:单击模型卡片,在“模型详情”页面右上角,单击“模型对比”。
| 操作 | 说明 |
|---|---|
| 切换模型/版本 | MaaS会自动选择模型进行对比,您可以在模型名称右侧单击图标,按需选择模型和版本,单击“确定”。 |
| 查看详情 | 在模型名称下方,单击“查看详情”,会跳转至“模型详情”页面,可以查看该模型的介绍、版本及能力等信息。 |
| 推理调用 | 在模型名称下方,单击“推理调用”,按照“调用说明”面板开通或调用模型服务。 开通模型服务后才可体验/调用模型。开通服务将同步开通该服务下所有版本。 |
| 在线体验 | 在模型名称下方,单击“在线体验”,将跳转至对应的模型体验页面。更多信息,请参见MaaS在线体验。 当对比模型为2~3个支持在线体验的文本生成模型时,“模型对比”页面右上角会出现“模型体验对比”,单击后跳转至“文本对话”页面进行模型在线体验对比。如果未开通预置模型服务,会弹出对话框,请按照对话框提示进行开通。 |
| 退出对比 | 在“模型对比”页面右上角,单击“退出对比”。 |
在线体验
开通模型服务后才可体验/调用模型。开通服务将同步开通该服务下所有版本。开通后,可前往管理所有模型服务,也可以查看服务的调用说明、调用统计等。
- “精选模型”页签:
- 模型卡片有操作按钮:单击“在线体验”。
- 模型卡片无操作按钮,鼠标悬浮于模型卡片,单击“在线体验”。
- “全部模型”页签:在模型卡片单击“在线体验”。
- “模型详情”页面:在页面右上角单击“在线体验”,选择版本,或者在版本区域右侧单击“在线体验”。
如果您首次使用,会弹出“开通模型服务”对话框,请仔细查看相关信息,勾选“我已阅读并同意上述说明,及《MaaS 服务声明》”,单击“确认开通”,跳转至模型对应的体验页面进行在线体验。
模型部署
自行部署的服务,适合自定义模型、调优后模型的部署。
任选以下方式进入模型部署。关于模型部署的详细说明,请参见部署模型服务。
- “全部模型”页签:在模型卡片单击“模型部署”。
- “模型详情”页面:在页面右上角单击“模型部署”,选择版本,或者在版本区域右侧单击“部署”。
推理调用
MaaS提供商用级别的推理API服务,无需等待部署,开通模型服务后您可直接体验或调用模型服务,按用量计费(按Token/图片生成时长等)。
- 任选以下方式进入推理调用。
- “精选模型”页签:
- 模型卡片有操作按钮:单击“API 调用”。
- 模型卡片无操作按钮:鼠标悬浮于模型卡片,单击“API 调用”。
- “全部模型”页签:在模型卡片单击“推理调用”。
- “模型详情”页面:在页面右上角单击“推理调用”,选择版本,或者在版本区域右侧单击“推理调用”。
- “精选模型”页签:
- 在“调用说明”面板,按照“调用说明”面板开通或调用模型服务。
开通模型服务:在“开通模型服务”区域,仔细查看相关信息,勾选“我已阅读并同意上述说明,及《MaaS 服务声明》”,单击“立即开通”。
模型调优
通过多种训练方法进行模型调优,获得更符合业务需求的模型效果。
任选以下方式进入模型调优。关于模型调优的详细说明,请参见MaaS模型调优。
- “全部模型”页签:在模型卡片单击“模型调优”。
- “模型详情”页面:在页面右上角单击“模型调优”,选择版本,或者在版本区域右侧单击“调优”。

