文档首页 > > 常见问题> 模型管理> 压缩和转换模型>

本地构建的模型如何转化为可应用Ascend芯片上的模型?

本地构建的模型如何转化为可应用Ascend芯片上的模型?

分享
更新时间:2021/04/12 GMT+08:00

ModelArts提供模型转换功能,支持将您本地构建的模型转化为不同的格式以应用于不同的芯片类型。

ModelArts提供的模型转换功能支持以下场景:

  • 使用Caffe(.caffemodel格式)或者Tensorflow框架(“frozen_graph”“saved_model”格式)训练的模型,使用转换功能可转换成“.om格式”,转换后的模型可在昇腾(Ascend)芯片上部署运行。
  • 使用Tensorflow框架训练模型(frozen_graph或“saved_model”格式), 使用转换功能可以将模型转换量化成tflite格式,转换后的模型可以在ARM上部署运行。
  • 使用Tensorflow框架训练模型(frozen_graph或“saved_model”格式), 使用转换功能可以将模型转换量化成tensorRT格式, 转换后的模型可以在nvidia p4 GPU上部署运行。

更多操作详见压缩和转换模板

格式介绍

“caffemode”l格式

|
|---xxxx.caffemodel         模型参数文件,输入目录下有且只能有一个,必填。
|---xxxx.prototxt           模型网络文件,输入目录下有且只能有一个,必填。
|---insert_op_conf.cfg      插入算子配置文件,输入目录下有且只有一个,可选。
|---plugin                  自定义算子目录,输入目录下有且只能有一个plugin文件夹,可选。仅支持基于TE(Tensor Engine)开发的自定义算子。
“frozen_graph”格式
|
|---xxxx.pb                 模型网络文件,输入目录下有且只能有一个,必填。支持以frozen_graph或saved_model格式保存的模型。
|---insert_op_conf.cfg      插入算子配置文件,输入目录下有且只有一个,可选。
|---plugin                  自定义算子目录,输入目录下有且只能有一个plugin文件夹,可选。仅支持基于TE(Tensor Engine)开发的自定义算子。

“saved_model”格式

|
|---saved_model.pb          模型网络文件,输入目录下有且只能有一个,必填。支持以frozen_graph或saved_model格式保存的模型。
|---variables               固定子目录名称,包含模型的权重偏差等信息,必选
    |---variables.index     必选
    |---variables.data-00000-of-00001 必选
|---insert_op_conf.cfg      插入算子配置文件,输入目录下有且只有一个,可选。
|---plugin                  自定义算子目录,输入目录下有且只能有一个plugin文件夹,可选。仅支持基于TE(Tensor Engine)开发的自定义算子。
分享: