ModelArts入门实践
本章节列举了一些常用的实践案例,方便您快速了解并使用ModelArts完成AI开发。
分类 |
实践案例 |
描述 |
适用人群 |
---|---|---|---|
ModelArts Studio |
本案例介绍在ModelArts Studio大模型即服务平台(下面简称为MaaS),使用Llama3-8B模型框架实现新闻自动分类,能够高效处理和分类大量新闻内容。 |
面向AI大模型开发新手用户,了解AI大模型基础知识即可 |
|
ModelArts Standard模型训练 |
本案例介绍了如何使用ModelArts Standard专属资源池提供的计算资源,结合SFS和OBS存储,在ModelArts Standard的训练环境中开展GPU的单机单卡、单机多卡、多机多卡分布式训练。 |
面向熟悉代码编写和调测的AI工程师,同时了解SFS和OBS云服务 |
|
本案例介绍如何从0开始制作镜像,并使用该镜像在ModelArts Standard平台上进行训练。镜像中使用的AI引擎是Pytorch,训练使用的资源是CPU或GPU。 |
面向熟悉代码编写和调测的AI工程师,同时熟悉docker容器知识 |
||
本案例介绍如何从0开始制作镜像,并使用该镜像在ModelArts Standard平台上进行训练。镜像中使用的AI引擎是MindSpore,训练使用的资源是Ascend。 |
|||
本案例基于ModelArts Standard供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源大模型的预训练、SFT微调、LoRA微调训练过程。 |
面向熟悉代码编写和调测的AI工程师 |
||
ModelArts Standard推理部署 |
本案例以“商超商品识别”模型为例,介绍从AI Gallery订阅模型,一键部署到ModelArts Standard,并进行在线推理预测的体验过程。 |
面向AI开发零基础的用户 |
|
针对ModelArts不支持的AI引擎,您可以构建自定义镜像,并将镜像导入ModelArts,创建为AI应用。本案例详细介绍如何使用自定义镜像创建AI应用,并部署成在线服务。 |
面向熟悉代码编写和调测的AI工程师,同时熟悉docker容器知识 |
||
本案例基于ModelArts Standard供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源大模型的推理部署、模型评测、模型量化等功能。 |
面向熟悉代码编写和调测的AI工程师 |
||
ModelArts Standard自动学习 |
本案例基于华为云AI开发者社区AI Gallery中的数据集资产,让零AI基础的开发者使用ModelArts Standard的自动学习功能完成“图像分类”AI模型的训练和部署。 |
面向AI开发零基础的用户 |
|
本案例基于华为云AI开发者社区AI Gallery中的数据集资产,让零AI基础的开发者使用ModelArts Standard的自动学习功能完成“物体检测”AI模型的训练和部署。依据开发者提供的标注数据及选择的场景,无需任何代码开发,自动生成满足用户精度要求的模型。 |
|||
ModelArts Standard开发环境 |
本案例介绍了如何将本地开发好的MindSpore模型代码,通过PyCharm ToolKit连接到ModelArts Standard进行云上调试和训练。 |
面向熟悉代码编写和调测的AI工程师 |
|
本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts Standard的Notebook进行云端数据调试及模型开发。 |
|||
ModelArts Lite Server |
本案例基于ModelArts Lite DevServer供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源大模型的预训练、SFT微调、LoRA微调训练过程。 |
面向熟悉代码编写和调测的AI工程师,同时熟悉Linux和Docker容器基础知识 |
|
本案例基于ModelArts Lite DevServer提供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源大模型的推理部署、模型评测、模型量化等功能。 |