ModelArts最佳实践案例列表
在最佳实践文档中,提供了针对多种场景、多种AI引擎的ModelArts案例,方便您通过如下案例快速了解使用ModelArts完成AI开发的流程和操作。
GLM-5模型推理场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
推理 |
介绍GLM-5模型基于ModelArts推理平台一键部署指导,使用简单方便,易上手。 |
|
|
推理 |
介绍GLM-5模型基于ModelArts 轻量算力节点部署推理服务的操作过程。 |
LLM大语言模型训练推理场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
Qwen3系列模型基于ModelArts平台适配MindSpeed-LLM框架训练指导 |
预训练、SFT全参微调训练、LoRA微调训练 |
介绍Qwen3、Qwen2.5-VL系列等模型适配各类框架,基于ModelArts的训练过程,训练使用昇腾NPU计算资源。 |
|
推理部署、推理性能测试、推理精度测试、推理模型量化 |
介绍主流的开源大模型Llama系列、Qwen3系列、Qwen-VL系列等模型基于ModelArts的推理部署过程,推理使用Ascend-vLLM框架和昇腾NPU计算资源。 |
多模态模型场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
Bunny-Llama-3-8B-V、InternVL2、LLaVA-NeXT、LLaVA、Llama 3.2-Vision、moondream2等模型的训练或推理 |
介绍常见多模态模型使用ModelArts训练或推理过程。 |
图像生成模型训练推理场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
Diffusers、ComfyUI套件基于ModelArts Lite Server适配PyTorch NPU的推理指导 VAR/XAR/RandAR/Infinity自回归图像生成模型基于Lite Server适配NPU推理指导 DeepSeek Janus-Pro模型基于ModelArts Lite Server适配PyTorch NPU推理指导 |
SD1.5、SDXL、SD3.5、HUNYUAN模型推理 VAR/XAR/RandAR/Infinity、DeepSeek Janus-Pro模型推理 |
介绍常见的图像生成模型基于ModelArts Lite Server的推理过程,推理使用昇腾NPU计算资源。 启动推理服务后,可应用于图像生成场景。 |
|
SDXL模型推理 |
介绍常见的图像生成模型基于Notebook的推理过程,推理使用昇腾NPU计算资源。 启动推理服务后,可应用于图像生成场景。 |
|
|
Open-Clip模型训练 |
介绍Open-Clip模型基于ModelArts轻量算力节点的训练过程,训练使用PyTorch框架和昇腾NPU计算资源。 应用于AIGC和多模态视频编码器。 |
视频生成模型训练推理场景
|
样例 |
场景 |
说明 |
|---|---|---|
|
Wan2.1/Wan2.2/HunyuanVideo/CogVideo系列模型基于ModelArts Lite Server适配NPU推理指导 |
Wan系列模型推理 |
介绍Wan系列模型基于ModelArts轻量算力节点的推理过程,推理使用PyTorch框架和昇腾NPU计算资源。 |
|
Wan系列模型训练 |
介绍Wan系列模型基于ModelArts轻量算力节点的训练过程,训练使用PyTorch框架和昇腾NPU计算资源。 训练后的模型可用于推理部署,应用于视频生成场景。 |
ModelArts开发环境案例
|
样例 |
镜像 |
对应功能 |
场景 |
说明 |
|---|---|---|---|---|
|
- |
环境迁移 |
开发环境 |
本案例介绍如何将Notebook的Conda环境迁移到SFS磁盘上。 |
|
|
MindSpore |
VS Code Toolkit工具 |
目标检测 |
本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts Notebook进行云端数据调试及模型开发。 |
ModelArts模型训练案例
|
样例 |
镜像 |
对应功能 |
场景 |
说明 |
|---|---|---|---|---|
|
PyTorch |
自定义算法 |
手写数字识别 |
使用用户自己的算法,训练得到手写数字识别模型,并部署后进行预测。 |
ModelArt推理部署
|
样例 |
对应功能 |
场景 |
说明 |
|---|---|---|---|
|
第三方框架 推理部署 |
- |
ModelArts支持第三方的推理框架在ModelArts上部署,本文以TFServing框架、Triton框架为例,介绍如何迁移到推理自定义引擎。 |