更新时间:2024-11-21 GMT+08:00
分享

从训练作业中导入模型文件创建模型

在ModelArts中创建训练作业,并完成模型训练,在得到满意的模型后,可以将训练后得到的模型导入至模型管理,方便统一管理,同时支持将模型快速部署上线为服务。

约束与限制

  • 针对使用订阅算法的训练作业,无需推理代码和配置文件,其生成的模型可直接导入ModelArts。
  • 使用容器化部署,导入的元模型有大小限制,详情请参见导入模型对于镜像大小限制

前提条件

  • 请确保训练作业已运行成功,且模型已存储至训练输出的OBS目录下(输入参数为train_url)。
  • 针对使用常用框架或自定义镜像创建的训练作业,需根据模型包结构介绍,将推理代码和配置文件上传至模型的存储目录中。
  • 确保您使用的OBS目录与ModelArts在同一区域。

创建模型操作步骤

  1. 登录ModelArts管理控制台,在左侧导航栏中选择“模型管理”,进入模型列表页面。
  2. 单击左上角的“创建模型”,进入“创建模型”页面。
  3. “创建模型”页面,填写相关参数。
    1. 填写模型基本信息,详细参数说明请参见表1
      表1 模型基本信息参数说明

      参数名称

      说明

      名称

      模型名称。支持1~64位可见字符(含中文),名称可以包含字母、中文、数字、中划线、下划线。

      版本

      设置所创建模型的版本。第一次导入时,默认为0.0.1。

      说明:

      模型创建完成后,可以通过创建新版本,导入不同的元模型进行调优。

      描述

      模型的简要描述。

    2. 填写元模型来源及其相关参数。当“元模型来源”选择“从训练中选择”时,其相关的参数配置请参见表2
      图1 从训练中选择元模型

      表2 元模型来源参数说明

      参数

      说明

      “元模型来源”

      选择“从训练中选择”

      • “选择训练作业”右侧下拉框中选择当前账号下已完成运行的训练作业。
      • “动态加载”:用于实现快速部署和快速更新模型。如果勾选动态加载,则模型文件和运行时依赖仅在实际部署时拉取。当单个模型文件大小超过5GB时,必须配置“动态加载”。

      “AI引擎”

      元模型使用的推理引擎,选择训练作业后会自动匹配。

      “推理代码”

      推理代码自定义模型的推理处理逻辑。显示推理代码URL,您可以直接复制此URL使用。

      “运行时依赖”

      罗列选中模型对环境的依赖。例如依赖“tensorflow”,安装方式为“pip”,其版本必须为1.8.0及以上版本。

      “模型说明”

      为了帮助其他模型开发者更好的理解及使用您的模型,建议您提供模型的说明文档。单击“添加模型说明”,设置“文档名称”及其“URL”。模型说明最多支持3条。

      “部署类型”

      选择此模型支持部署服务的类型,部署上线时只支持部署为此处选择的部署类型,例如此处只选择在线服务,那您导入后只能部署为在线服务。当前支持“在线服务”“批量服务”“边缘服务”

    3. 确认信息填写无误,单击“立即创建”,完成模型的创建。

      在模型列表中,您可以查看刚创建的模型及其对应的版本。当模型状态变更为“正常”时,表示模型导入成功。在此页面,您还可以创建新版本、快速部署服务、发布模型等操作。

后续操作

部署服务:在“模型列表”中,单击模型的操作列的“部署”,在对应版本所在行,单击“操作”列的部署按钮,可以将模型部署上线为创建模型时所选择的部署类型。

相关文档