文档首页 > > AI工程师用户指南> 管理模型> 导入模型> 从OBS中选择元模型

从OBS中选择元模型

分享
更新时间:2020/09/11 GMT+08:00

针对使用常用框架完成模型开发和训练的场景,可以将您的模型导入至ModelArts中,进行统一管理。

使用前必读

  • 已完成模型开发和训练,使用的AI引擎为ModelArts支持的类型和版本。ModelArts支持如下几种常用引擎及其支持的Runtime范围。
    表1 支持的常用引擎及其Runtime

    模型使用的引擎类型

    支持的运行环境(Runtime)

    注意事项

    TensorFlow

    python3.6

    python2.7

    tf1.13-python2.7-gpu

    tf1.13-python2.7-cpu

    tf1.13-python3.6-gpu

    tf1.13-python3.6-cpu

    tf1.13-python3.7-cpu

    tf1.13-python3.7-gpu

    tf2.1-python3.7

    • python2.7、python3.6、python3.7的运行环境搭载的TensorFlow版本为1.8.0。
    • python3.6、python2.7、tf2.1-python3.7,表示该模型可同时在CPU或GPU运行。其他Runtime的值,如果后缀带cpu或gpu,表示该模型仅支持在CPU或GPU中运行。
    • 默认使用的Runtime为python2.7。

    MXNet

    python3.7

    python3.6

    python2.7

    • python2.7、python3.6、python3.7的运行环境搭载的MXNet版本为1.2.1。
    • python2.7、python3.6、python3.7,表示该模型可同时在CPU或GPU运行。
    • 默认使用的Runtime为python2.7。

    Caffe

    python2.7

    python3.6

    python3.7

    python2.7-gpu

    python3.6-gpu

    python3.7-gpu

    python2.7-cpu

    python3.6-cpu

    python3.7-cpu

    • python2.7、python3.6、python3.7、python2.7-gpu、python3.6-gpu、python3.7-gpu、python2.7-cpu、python3.6-cpu、python3.7-cpu的运行环境搭载的Caffe版本为1.0.0。
    • python2.7、python3.6、python3.7只能用于运行适用于CPU的模型。其他Runtime的值,如果后缀带cpu或gpu,表示该模型仅支持在CPU或GPU中运行。推荐使用python2.7-gpu、python3.6-gpu、python3.7-gpu、python2.7-cpu、python3.6-cpu、python3.7-cpu的Runtime。
    • 默认使用的Runtime为python2.7。

    Spark_MLlib

    python2.7

    python3.6

    • python2.7以及python3.6的运行环境搭载的Spark_MLlib版本为2.3.2。
    • 默认使用的Runtime为python2.7。
    • python2.7、python3.6只能用于运行适用于CPU的模型。

    Scikit_Learn

    python2.7

    python3.6

    • python2.7以及python3.6的运行环境搭载的Scikit_Learn版本为0.18.1。
    • 默认使用的Runtime为python2.7。
    • python2.7、python3.6只能用于运行适用于CPU的模型。

    XGBoost

    python2.7

    python3.6

    • python2.7以及python3.6的运行环境搭载的XGBoost版本为0.80。
    • 默认使用的Runtime为python2.7。
    • python2.7、python3.6只能用于运行适用于CPU的模型。

    PyTorch

    python2.7

    python3.6

    python3.7

    pytorch1.4-python3.7

    • python2.7、python3.6、python3.7的运行环境搭载的PyTorch版本为1.0。
    • python2.7、python3.6、python3.7、pytorch1.4-python3.7,表示该模型可同时在CPU或GPU运行。
    • 默认使用的Runtime为python2.7。
  • 针对导入的模型,需符合ModelArts的模型包规范,推理代码和配置文件也需遵循ModelArts的要求,详细说明请参见模型包规范介绍模型配置文件编写说明模型推理代码编写说明
  • 已完成训练的模型包,及其对应的推理代码和配置文件,已上传至OBS目录中。
  • 确保您使用的OBS与ModelArts在同一区域。

导入模型操作步骤

  1. 登录ModelArts管理控制台,在左侧导航栏中选择“模型管理 > 模型”,进入模型列表页面。
  2. 单击左上角的“导入”,进入“导入模型”页面。
  3. “导入模型”页面,填写相关参数。
    1. 填写模型基本信息,详细参数说明请参见表2
      表2 模型基本信息参数说明

      参数名称

      说明

      名称

      模型名称。支持1~64位可见字符(含中文),名称可以包含字母、中文、数字、中划线、下划线。

      版本

      设置所创建模型的版本。第一次导入时,默认为0.0.1。

      标签

      模型标签,最多支持5个。

      描述

      模型的简要描述。

    2. 填写元模型来源及其相关参数。根据用户的不同场景,“元模型来源”的选择有4种不同方式,请参见导入模型的4种场景。当“元模型来源”选择“从对象存储(OBS)中选择”时,其相关的参数配置请参见表3

      针对从OBS导入的元模型,ModelArts要求根据模型包规范,编写推理代码和配置文件,并将推理代码和配置文件放置元模型存储的“model”文件夹下。如果您选择的目录下无对应的推理代码及配置文件,将无法导入模型。

      图1 从OBS中选择元模型
      表3 元模型来源参数说明

      参数

      说明

      “选择元模型”

      选择模型存储路径,此路径为训练作业中指定的“训练输出位置”

      “AI引擎”

      根据您选择的元模型存储路径,将自动关联出对应的“AI引擎”

      “部署类型”

      导入模型后,选择此模型支持部署服务的类型,部署上线时只支持部署为此处选择的部署类型,例如此处只选择在线服务,那您导入后只能部署为在线服务。当前支持“在线服务”“批量服务”“边缘服务”

      “配置文件”

      系统默认关联您存储在OBS中的配置文件。打开开关,您可以直接在当前界面查看、编辑或从OBS导入您的模型配置文件。

      “参数配置”

      单击右侧的,查看当前模型的入参和出参。

      “运行时依赖”

      罗列选中模型对环境的依赖。例如依赖“tensorflow”,安装方式为“pip”,其版本必须为1.8.0及以上版本。

    3. 设置推理规格和模型说明。
      • “最小推理规格”:如果您的模型需要一定的规格资源才能完成推理,您可以在此配置自定义推理规格,即您的模型部署上线进行正常推理所需要的规格,后续版本部署上线时系统将会参考您填写的推理规格来分配资源,部署时可视情况修改该规格。需要注意的是此处自定义的规格,仅在部署在线服务且使用专属资源池、部署边缘场景有效。
      • “模型说明”:为了帮助其他模型开发者更好的理解及使用您的模型,建议您提供模型的说明文档。单击“增加模型说明”,设置“文档名称”及其“URL”。模型说明支持增加3条。
      图2 选择推理规格和模型说明
    4. 确认信息填写无误,单击“立即创建”,完成模型导入。

      在模型列表中,您可以查看刚导入的模型及其对应的版本。当模型状态变更为“正常”时,表示模型导入成功。在此页面,您还可以创建新版本、快速部署模型、发布模型等操作。

后续操作

  • 部署模型:在“模型列表”中,单击模型名称左侧的小三角,打开此模型下的所有版本。在对应版本所在行,单击“操作”列的“部署”,在下拉框中选择部署类型,可以将模型部署上线为导入模型时所选择的部署类型。在部署服务的页面,详细参数填写请参见模型部署简介的相关指导。
分享:

    相关文档

    相关产品

文档是否有解决您的问题?

提交成功!

非常感谢您的反馈,我们会继续努力做到更好!

反馈提交失败,请稍后再试!

*必选

请至少选择或填写一项反馈信息

字符长度不能超过200

提交反馈 取消

如您有其它疑问,您也可以通过华为云社区问答频道来与我们联系探讨

智能客服提问云社区提问