管理AI应用简介
AI开发和调优往往需要大量的迭代和调试,数据集、训练代码或参数的变化都可能会影响模型的质量,如不能统一管理开发流程元数据,可能会出现无法重现最优模型的现象。
ModelArts的AI应用可导入所有训练生成的元模型、上传至对象存储服务(OBS)中的元模型和容器镜像中的元模型,可对所有迭代和调试的AI应用进行统一管理。
约束与限制
- 自动学习项目中,在完成模型部署后,其生成的模型也将自动上传至AI应用列表中。但是自动学习生成的AI应用无法下载,只能用于部署上线。
- 创建AI应用、管理AI应用版本等功能目前是免费开放给所有用户,使用此功能不会产生费用。
创建AI应用的几种场景
- 从训练中选择:在ModelArts中创建训练作业,并完成模型训练,在得到满意的模型后,可以将训练后得到的模型创建为AI应用,用于部署服务。
- 从对象存储服务(OBS)中选择:如果您使用常用框架在本地完成模型开发和训练,可以将本地的模型按照模型包规范上传至OBS桶中,从OBS将模型导入至ModelArts中,创建为AI应用,直接用于部署服务。
- 从容器镜像中选择:针对ModelArts目前不支持的AI引擎,可以通过自定义镜像的方式将编写的模型镜像导入ModelArts,创建为AI应用,用于部署服务。
- 从模板中选择:相同功能的模型配置信息重复率高,将相同功能的配置整合成一个通用的模板,通过使用该模板,可以方便快捷的导入模型,创建为AI应用,而不用编写config.json配置文件。
AI应用的功能描述
支持的功能 |
说明 |
---|---|
将训练后的模型导入至ModelArts创建为AI应用,便于进行统一管理,支持如下几种场景的导入方式,不同场景对应的操作指导请参见: |
|
当AI应用创建成功后,您可以进入AI应用详情页查看AI应用的信息。 |
|
为方便溯源和模型反复调优,在ModelArts中提供了AI应用版本管理的功能,您可以基于版本对AI应用进行管理。 |
推理支持的AI引擎
在ModelArts创建AI应用时,若使用预置镜像“从模板中选择”或“从OBS中选择”导入模型,则支持如下常用引擎及版本的模型包。
- 标注“推荐”的Runtime来源于统一镜像,后续统一镜像将作为主流的推理基础镜像。统一镜像中的安装包更齐全,详细信息可以参见推理基础镜像列表。
- 推荐将旧版镜像切换为统一镜像,旧版镜像后续将会逐渐下线。
- 待下线的基本镜像不再维护。
- 统一镜像Runtime的命名规范:<AI引擎名字及版本> - <硬件及版本:cpu或cuda或cann> - <python版本> - <操作系统版本> - <CPU架构>
- 当前支持自定义模型启动命令,预置AI引擎都有默认的启动命令,如非必要无需改动
模型使用的引擎类型 |
支持的运行环境(Runtime) |
注意事项 |
---|---|---|
TensorFlow |
python3.6 python2.7(待下线) tf1.13-python3.6-gpu tf1.13-python3.6-cpu tf1.13-python3.7-cpu tf1.13-python3.7-gpu tf2.1-python3.7(待下线) tensorflow_2.1.0-cuda_10.1-py_3.7-ubuntu_18.04-x86_64(推荐) |
|
Spark_MLlib |
python2.7(待下线) python3.6(待下线) |
|
Scikit_Learn |
python2.7(待下线) python3.6(待下线) |
|
XGBoost |
python2.7(待下线) python3.6(待下线) |
|
PyTorch |
python2.7(待下线) python3.6 python3.7 pytorch1.4-python3.7 pytorch1.5-python3.7(待下线) pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18.04-x86_64(推荐) |
|
MindSpore |
aarch64(推荐) |
aarch64只能用于运行在Snt3芯片上。
|