导入/转换ModelArts开发模型
技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。
本章节介绍如何将在ModelArts开发的模型导入HiLens Studio,以及针对非“om”格式的模型,如何在HiLens Studio进行模型转换。
前提条件
- 暂不支持导入ModelArts中“自动学习”训练的模型。
- 华为HiLens 只能导入ModelArts中训练的模型文件,不能导入ModelArts的模型。
导入(转换)模型
- 在HiLens Studio界面左侧,单击。
页面左侧将显示您在ModelArts训练好的模型列表。
图1 模型列表
- 选择待导入、转换的模型,单击“Operation”列的“Apply”。
- 如果是“om”格式的模型,待模型导入成功后,HiLens Studio右下角会提示“Model imported successfully.”,文件夹“model”下会显示新导入的模型文件。
- 如果是非“om”格式的模型,会弹出“Convert Model”对话框。
按表1填写模型转换的信息,单击“OK”。
表1 Convert Model参数说明 参数
说明
Model Path
待转换的模型文件在技能项目文件中的位置。一般将模型导入至文件夹“save_model”。
Configuration
待转换模型的配置文件在技能项目文件中的位置。例如“save_model/aipp_rgb.cfg”。
Output Path
模型转换后输出位置。
Type
模型转换的类型,包括“TF-FrozenGraph-To-Ascend-HiLens”、“Caffe to Ascend”。
- “TF-FrozenGraph-To-Ascend-HiLens”
支持将Tensorflow frozen graph模型转换成可在ascend芯片上运行的模型。
- “Caffe to Ascend”
支持将Caffe模型转换成可在ascend芯片上运行的模型。
Advanced Options
当模型转换类型为“TF-FrozenGraph-To-Ascend-HiLens”时,可填写高级选项,包括张量形状、转换输出节点等参数选项,详情请见表2。
表2 Advanced Options 参数名称
参数说明
Input Tensor Shape
输入张量形状。若在上文“模型来源”中,选择需要转换格式的模型(非om格式模型),并且转换类型是“Tensorflow frozen graph 转 Ascend”或“Tensorflow SavedModel 转 Ascend”时,需要填写输入张量形状。
张量形状即模型输入数据的shape,输入数据格式为NHWC,如“input_name:1,224,224,3”,必填项。“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。
如果存在多个输入,请以分号(;)隔开。
out_nodes
转换输出节点,即指定输出节点,例如“node_name1:0;node_name1:1;node_name2:0”,其中“node_name”必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如“node_name1:0”,表示节点名称为“node_name1”的第0个输出。
input_format
输入数据格式,默认是“NHWC”,如果实际是“NCHW”的话,需要通过此参数指定“NCHW”。
net_format
优选数据格式,即指定网络算子优先选用的数据格式,“ND(N=4)”和“5D”。仅在网络中算子的输入数据同时支持“ND”和“5D”两种格式时,指定该参数才生效。“ND”表示模型中算子按“NCHW”转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。
fp16_high_precsion
生成高精度模型,指定是否生成高精度“FP16 Davinci”模型。
- 0为默认值,表示生成普通“FP16 Davinci”模型,推理性能更好。
- 1表示生成高精度“FP16 Davinci”模型,推理精度更好。
output_type
网络输出数据类型,“FP32”为默认值,推荐分类网络、检测网络使用;图像超分辨率网络,推荐使用“UINT8”,推理性能更好。
- “TF-FrozenGraph-To-Ascend-HiLens”