创建AI应用不同方式的场景介绍
AI开发和调优往往需要大量的迭代和调试,数据集、训练代码或参数的变化都可能会影响模型的质量,如不能统一管理开发流程元数据,可能会出现无法重现最优模型的现象。
ModelArts的AI应用可导入所有训练生成的元模型、上传至对象存储服务(OBS)中的元模型和容器镜像中的元模型,可对所有迭代和调试的AI应用进行统一管理。
约束与限制
- 自动学习项目中,在完成模型部署后,其生成的模型也将自动上传至AI应用列表中。但是自动学习生成的AI应用无法下载,只能用于部署上线。
- 创建AI应用、管理AI应用版本等功能目前是免费开放给所有用户,使用此功能不会产生费用。
创建AI应用的几种场景
- 从训练作业中导入AI应用文件创建模型:在ModelArts中创建训练作业,并完成模型训练,在得到满意的模型后,可以将训练后得到的模型创建为AI应用,用于部署服务。
- 从OBS中导入AI应用文件创建模型:如果您使用常用框架在本地完成模型开发和训练,可以将本地的模型按照模型包规范上传至OBS桶中,从OBS将模型导入至ModelArts中,创建为AI应用,直接用于部署服务。
- 从容器镜像中导入AI应用文件创建模型:针对ModelArts目前不支持的AI引擎,可以通过自定义镜像的方式将编写的模型镜像导入ModelArts,创建为AI应用,用于部署服务。
- 从AI Gallery订阅模型:ModelArts的AI Gallery中提供了大量免费的模型供用户一键部署,您可订阅AI Gallery上的模型进行AI体验学习。
推理支持的AI引擎
在ModelArts创建AI应用时,如果使用预置镜像“从OBS中选择”导入模型,则支持如下常用引擎及版本的模型包。
- 标注“推荐”的Runtime来源于统一镜像,后续统一镜像将作为主流的推理基础镜像。统一镜像中的安装包更齐全,详细信息可以参见推理基础镜像列表。
- 推荐将旧版镜像切换为统一镜像,旧版镜像后续将会逐渐下线。
- 待下线的基础镜像不再维护。
- 统一镜像Runtime的命名规范:<AI引擎名字及版本> - <硬件及版本:cpu或cuda或cann> - <python版本> - <操作系统版本> - <CPU架构>
- 当前支持自定义模型启动命令,预置AI引擎都有默认的启动命令,如非必要无需改动
模型使用的引擎类型 |
支持的运行环境(Runtime) |
注意事项 |
---|---|---|
TensorFlow |
python3.6 python2.7(待下线) tf1.13-python3.6-gpu tf1.13-python3.6-cpu tf1.13-python3.7-cpu tf1.13-python3.7-gpu tf2.1-python3.7(待下线) tensorflow_2.1.0-cuda_10.1-py_3.7-ubuntu_18.04-x86_64(推荐) |
|
Spark_MLlib |
python2.7(待下线) python3.6(待下线) |
|
Scikit_Learn |
python2.7(待下线) python3.6(待下线) |
|
XGBoost |
python2.7(待下线) python3.6(待下线) |
|
PyTorch |
python2.7(待下线) python3.6 python3.7 pytorch1.4-python3.7 pytorch1.5-python3.7(待下线) pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18.04-x86_64(推荐) |
|
MindSpore |
aarch64(推荐) |
aarch64只能用于运行在Snt3芯片上。
|