文档首页> AI开发平台ModelArts> 推理部署> 管理AI应用> 创建AI应用> 从OBS导入元模型(手动配置)
更新时间:2023-01-31 GMT+08:00
分享

从OBS导入元模型(手动配置)

针对使用常用框架完成模型开发和训练的场景,可以将您的模型导入至ModelArts中,创建为AI应用,并进行统一管理。

约束与限制

前提条件

  • 已完成模型开发和训练,使用的AI引擎为ModelArts支持的类型和版本,详细请参见推理支持的AI引擎
  • 已完成训练的模型包,及其对应的推理代码和配置文件,且已上传至OBS目录中。
  • 确保您使用的OBS与ModelArts在同一区域。

创建AI应用操作步骤

  1. 登录ModelArts管理控制台,在左侧导航栏中选择“AI应用管理 > AI应用”,进入AI应用列表页面。
  2. 单击左上角的“创建”,进入“创建AI应用”页面。
  3. “创建AI应用”页面,填写相关参数。
    1. 填写AI应用基本信息,详细参数说明请参见表1
      表1 AI应用基本信息参数说明

      参数名称

      说明

      名称

      AI应用名称。支持1~64位可见字符(含中文),名称可以包含字母、中文、数字、中划线、下划线。

      版本

      设置所创建AI应用的版本。第一次导入时,默认为0.0.1。

      说明:

      AI应用创建完成后,可以通过创建新版本,导入不同的元模型进行调优。

      描述

      AI应用的简要描述。

    2. 填写元模型来源及其相关参数。当“元模型来源”选择“从对象存储(OBS)中选择”时,其相关的参数配置请参见表2

      针对从OBS导入的元模型,ModelArts要求根据模型包规范,编写推理代码和配置文件,并将推理代码和配置文件放置元模型存储的“model”文件夹下。如果您选择的目录下不符合模型包规范,将无法创建AI应用。

      图1 从OBS中选择元模型
      表2 元模型来源参数说明

      参数

      说明

      “选择元模型”

      选择元模型存储的OBS路径。

      OBS路径不能含有空格,否则创建AI应用会失败。

      “AI引擎”

      根据您选择的元模型存储路径,将自动关联出元模型使用的“AI引擎”

      “动态加载”

      若勾选动态加载,则模型文件和运行时依赖仅在实际部署时拉取,用于实现快速部署和快速更新模型。

      “运行时依赖”

      罗列选中模型对环境的依赖。例如依赖“tensorflow”,安装方式为“pip”,其版本必须为1.8.0及以上版本。

      “AI应用说明”

      为了帮助其他AI应用开发者更好的理解及使用您的AI应用,建议您提供AI应用的说明文档。单击“添加AI应用说明”,设置“文档名称”及其“URL”。AI应用说明支持增加3条。

      “配置文件”

      系统默认关联您存储在OBS中的配置文件。打开开关,您可以直接在当前界面查看或编辑模型配置文件。

      说明:

      该功能即将下线,后续请根据“AI引擎”“运行时依赖”“apis定义”修改模型的配置信息。

      “部署类型”

      选择此AI应用支持部署服务的类型,部署上线时只支持部署为此处选择的部署类型,例如此处只选择在线服务,那您导入后只能部署为在线服务。当前支持“在线服务”“批量服务”“边缘服务”

      “apis定义”

      提供AI应用对外Restfull api数据定义,用于定义AI应用的输入、输出格式。

    3. 确认信息填写无误,单击“立即创建”,完成AI应用创建。

      在AI应用列表中,您可以查看刚创建的AI应用及其对应的版本。当AI应用状态变更为“正常”时,表示AI应用创建成功。在此页面,您还可以创建新版本、快速部署服务、发布AI应用等操作。

后续操作

部署服务:在“AI应用列表”中,单击AI应用名称左侧的小三角,打开此AI应用下的所有版本。在对应版本所在行,单击“操作”列的“部署”,在下拉框中选择部署类型,可以将AI应用部署上线为导入AI应用时所选择的部署类型。

分享:

    相关文档

    相关产品