ModelArts最佳实践案例列表
在最佳实践文档中,提供了针对多种场景、多种AI引擎的ModelArts案例,方便您通过如下案例快速了解使用ModelArts完成AI开发的流程和操作。
DeepSeek模型推理场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
推理 |
介绍DeepSeek R1/V3/V3.1模型基于ModelArts Lite Server推理的整体解决方案,包括PD分离部署过程、日志采集转储、查看监控告警等内容。推理使用Ascend-vLLM框架和昇腾NPU计算资源。 |
|
|
推理 |
介绍DeepSeek R1/V3/V3.1模型基于ModelArts Lite Cluster推理的整体解决方案,包括PD分离部署过程、日志采集转储、查看监控告警等内容。推理使用Ascend-vLLM框架和昇腾NPU计算资源。 |
LLM大语言模型训练推理场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
主流开源大模型基于ModelArts Lite Server适配AscendFactory PyTorch NPU训练指导 |
预训练、SFT全参微调训练、LoRA微调训练 |
介绍主流的开源大模型DeepSeek系列、Llama系列、Qwen3、Qwen-VL系列等模型基于ModelArts Lite Server的训练过程,训练使用AscendFactory框架和昇腾NPU计算资源。 |
|
推理部署、推理性能测试、推理精度测试、推理模型量化 |
介绍主流的开源大模型Llama系列、Qwen系列、Qwen-VL系列等模型基于ModelArts Lite Server的推理部署过程,推理使用Ascend-vLLM框架和昇腾NPU计算资源。 |
多模态模型场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
Bunny-Llama-3-8B-V基于Lite Server适配PyTorch NPU的训练指导 InternVL2基于Lite Server适配PyTorch NPU训练指导(6.3.912) LLaVA-NeXT基于Lite Server适配PyTorch NPU训练微调指导(6.3.912) LLaVA模型基于Lite Server适配PyTorch NPU预训练指导(6.3.912) |
Bunny-Llama-3-8B-V、InternVL2、LLaVA-NeXT、LLaVA、Llama 3.2-Vision、moondream2等模型的训练或推理 |
介绍常见多模态模型使用PyTorch框架和昇腾NPU计算资源,基于ModelArts Lite Server或者Standard的训练或推理过程。 |
图像生成模型训练推理场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
Diffusers、ComfyUI套件基于ModelArts Lite Server适配PyTorch NPU的推理指导 VAR/XAR/RandAR/Infinity自回归图像生成模型基于Lite Server适配NPU推理指导 DeepSeek Janus-Pro模型基于ModelArts Lite Server适配PyTorch NPU推理指导 |
SD1.5、SDXL、SD3.5、HUNYUAN模型推理 VAR/XAR/RandAR/Infinity、DeepSeek Janus-Pro模型推理 |
介绍常见的图像生成模型基于ModelArts Lite Server的推理过程,推理使用昇腾NPU计算资源。 启动推理服务后,可应用于图像生成场景。 |
|
SDXL模型推理 |
介绍常见的图像生成模型基于ModelArts Standard Notebook的推理过程,推理使用昇腾NPU计算资源。 启动推理服务后,可应用于图像生成场景。 |
|
|
Open-Clip模型训练 |
介绍Open-Clip模型基于ModelArts Lite Server的训练过程,训练使用PyTorch框架和昇腾NPU计算资源。 应用于AIGC和多模态视频编码器。 |
视频生成模型训练推理场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
Wan系列模型推理 |
介绍Wan系列模型基于ModelArts Lite Server的推理过程,推理使用PyTorch框架和昇腾NPU计算资源。 |
|
|
Wan2.1系列模型训练 |
介绍Wan2.1系列模型基于ModelArts Lite Server的训练过程,训练使用PyTorch框架和昇腾NPU计算资源。 训练后的模型可用于推理部署,应用于视频生成场景。 |
内容审核场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
Bert基于Lite Server适配MindSpore Lite推理指导(6.3.910) |
Bert、Yolov8、Paraformer等内容审核模型推理 |
案例主要介绍内容审核场景的相关模型如何基于ModelArts Lite Server上的昇腾NPU资源进行模型推理。 |
ModelArts Standard权限配置
|
样例 |
对应功能 |
场景 |
说明 |
|---|---|---|---|
|
IAM权限配置、权限管理 |
为子账号配置权限 |
当一个华为云账号下需创建多个IAM子账号时,可参考此样例,为IAM子账号赋予使用ModelArts所需的权限。避免IAM子账号因权限问题导致使用时出现异常。 |
ModelArts Standard开发环境案例
|
样例 |
镜像 |
对应功能 |
场景 |
说明 |
|---|---|---|---|---|
|
- |
环境迁移 |
开发环境 |
本案例介绍如何将Notebook的Conda环境迁移到SFS磁盘上。 |
|
|
MindSpore |
VS Code Toolkit工具 |
目标检测 |
本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts Notebook进行云端数据调试及模型开发。 |
ModelArts Standard模型训练案例
|
样例 |
镜像 |
对应功能 |
场景 |
说明 |
|---|---|---|---|---|
|
PyTorch |
自定义算法 |
手写数字识别 |
使用用户自己的算法,训练得到手写数字识别模型,并部署后进行预测。 |
ModelArts Standard推理部署
|
样例 |
对应功能 |
场景 |
说明 |
|---|---|---|---|
|
第三方框架 推理部署 |
- |
ModelArts支持第三方的推理框架在ModelArts上部署,本文以TFServing框架、Triton框架为例,介绍如何迁移到推理自定义引擎。 |