文档首页/ AI开发平台ModelArts/ 最佳实践/ ModelArts最佳实践案例列表
更新时间:2025-08-27 GMT+08:00
分享

ModelArts最佳实践案例列表

在最佳实践文档中,提供了针对多种场景、多种AI引擎的ModelArts案例,方便您通过如下案例快速了解使用ModelArts完成AI开发的流程和操作。

DeepSeek模型推理场景

样例

场景

说明

DeepSeek蒸馏版模型基于ModelArts Lite Server适配vLLM的推理部署指导

推理

介绍DeepSeek蒸馏版模型基于ModelArts Lite Server的推理部署过程,推理使用Ascend-vLLM框架和昇腾NPU计算资源。

LLM大语言模型训练推理场景

样例

场景

说明

主流开源大模型适配AscendFactory PyTorch NPU训练指导

预训练、SFT全参微调训练、LoRA微调训练

介绍主流的开源大模型Llama系列、Qwen系列、Yi系列等基于ModelArts Lite Server的训练过程,训练使用PyTorch框架和昇腾NPU计算资源。训练后的模型可用于推理部署,搭建大模型问答助手。

主流开源大模型基于Lite Server适配Ascend-vLLM PyTorch NPU推理指导

推理部署、推理性能测试、推理精度测试、推理模型量化

介绍主流的开源大模型Llama系列、Qwen系列、Yi系列等基于ModelArts Lite Server的推理部署过程,推理使用PyTorch框架和昇腾NPU计算资源。

启动推理服务后,可用于搭建大模型问答助手。

视频生成模型训练推理场景

样例

场景

说明

CogVideo模型、Open-Sora模型训练推理

介绍CogVideo、Open-Sora-Plan、Open-Sora1.2模型基于ModelArts Lite Server的训练推理过程,训练使用PyTorch框架和昇腾NPU计算资源。

训练后的模型可用于推理部署,应用于文生视频场景。

内容审核场景

样例

场景

说明

Bert基于Lite Server适配MindSpore Lite推理指导(6.3.910)

Yolov8基于Lite Server适配MindSpore Lite推理指导(6.3.909)

Paraformer基于Lite Server适配PyTorch NPU推理指导(6.3.911)

Bert、Yolov8、Paraformer等内容审核模型推理

案例主要介绍内容审核场景的相关模型如何基于ModelArts Lite Server上的昇腾NPU资源进行模型推理。

ModelArts Standard权限配置

样例

对应功能

场景

说明

ModelArts Standard权限管理

IAM权限配置、权限管理

为子账号配置权限

当一个华为云账号下需创建多个IAM子账号时,可参考此样例,为IAM子账号赋予使用ModelArts所需的权限。避免IAM子账号因权限问题导致使用时出现异常。

ModelArts Standard开发环境案例

表1 Notebook样例列表

样例

镜像

对应功能

场景

说明

将Notebook的Conda环境迁移到SFS磁盘

-

环境迁移

开发环境

本案例介绍如何将Notebook的Conda环境迁移到SFS磁盘上。

使用ModelArts VSCode插件调试训练ResNet50图像分类模型

MindSpore

VS Code Toolkit工具

目标检测

本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts Notebook进行云端数据调试及模型开发。

ModelArts Standard模型训练案例

表2 自定义算法样例列表

样例

镜像

对应功能

场景

说明

使用ModelArts Standard自定义算法实现手写数字识别

PyTorch

自定义算法

手写数字识别

使用用户自己的算法,训练得到手写数字识别模型,并部署后进行预测。

从0制作自定义镜像并用于训练(MindSpore+Ascend)

MindSpore

镜像制作

自定义镜像训练

-

此案例介绍如何从0到1制作镜像,并使用该镜像在ModelArts平台上进行训练。镜像中使用的AI引擎是MindSpore,训练使用的资源是NPU。

ModelArts Standard推理部署

表3 推理部署列表

样例

对应功能

场景

说明

第三方推理框架迁移到ModelArts Standard推理自定义引擎

第三方框架

推理部署

-

ModelArts支持第三方的推理框架在ModelArts上部署,本文以TFServing框架、Triton框架为例,介绍如何迁移到推理自定义引擎。

第三方案例列表

第三方案例来源为华为云开发者社区“云驻计划”。由于ModelArts产品的持续更新和迭代,第三方案例中的界面和步骤可能因时效性而与最新产品有所差异,仅供学习和参考。

相关文档