从训练作业中导入模型文件创建模型
在ModelArts中创建训练作业,并完成模型训练,在得到满意的模型后,可以将训练后得到的模型导入至模型管理,方便统一管理,同时支持将模型快速部署上线为服务。
约束与限制
- 针对使用订阅算法的训练作业,无需推理代码和配置文件,其生成的模型可直接导入ModelArts。
- 使用容器化部署,导入的元模型有大小限制,详情请参见导入模型对于镜像大小限制。
前提条件
- 请确保训练作业已运行成功,且模型已存储至训练输出的OBS目录下(输入参数为train_url)。
- 针对使用常用框架或自定义镜像创建的训练作业,需根据模型包结构介绍,将推理代码和配置文件上传至模型的存储目录中。
- 确保您使用的OBS目录与ModelArts在同一区域。
创建模型操作步骤
- 登录ModelArts管理控制台,在左侧导航栏中选择“模型管理”,进入模型列表页面。
- 单击左上角的“创建模型”,进入“创建模型”页面。
- 在“创建模型”页面,填写相关参数。
- 填写模型基本信息,详细参数说明请参见表1。
表1 模型基本信息参数说明 参数名称
说明
名称
模型名称。支持1~64位可见字符(含中文),名称可以包含字母、中文、数字、中划线、下划线。
版本
设置所创建模型的版本。第一次导入时,默认为0.0.1。
说明:模型创建完成后,可以通过创建新版本,导入不同的元模型进行调优。
描述
模型的简要描述。
- 填写元模型来源及其相关参数。当“元模型来源”选择“从训练中选择”时,其相关的参数配置请参见表2。
图1 从训练中选择元模型
表2 元模型来源参数说明 参数
说明
“元模型来源”
选择“从训练中选择”。
- 在“选择训练作业”右侧下拉框中选择当前账号下已完成运行的训练作业。
- “动态加载”:用于实现快速部署和快速更新模型。如果勾选动态加载,则模型文件和运行时依赖仅在实际部署时拉取。当单个模型文件大小超过5GB时,必须配置“动态加载”。
“AI引擎”
元模型使用的推理引擎,选择训练作业后会自动匹配。
“推理代码”
推理代码自定义模型的推理处理逻辑。显示推理代码URL,您可以直接复制此URL使用。
“运行时依赖”
罗列选中模型对环境的依赖。例如依赖“tensorflow”,安装方式为“pip”,其版本必须为1.8.0及以上版本。
“模型说明”
为了帮助其他模型开发者更好的理解及使用您的模型,建议您提供模型的说明文档。单击“添加模型说明”,设置“文档名称”及其“URL”。模型说明最多支持3条。
“部署类型”
选择此模型支持部署服务的类型,部署上线时只支持部署为此处选择的部署类型,例如此处只选择在线服务,那您导入后只能部署为在线服务。当前支持“在线服务”、“批量服务”和“边缘服务”。
- 确认信息填写无误,单击“立即创建”,完成模型的创建。
在模型列表中,您可以查看刚创建的模型及其对应的版本。当模型状态变更为“正常”时,表示模型导入成功。在此页面,您还可以创建新版本、快速部署服务、发布模型等操作。
- 填写模型基本信息,详细参数说明请参见表1。
后续操作
部署服务:在“模型列表”中,单击模型的操作列的“部署”,在对应版本所在行,单击“操作”列的部署按钮,可以将模型部署上线为创建模型时所选择的部署类型。