- 最新动态
- 功能总览
- 服务公告
- 产品介绍
- 快速入门
- 用户指南(基础版控制台)
- 用户指南(专业版控制台)
- 最佳实践
- 开发指南
- API参考
- SDK参考
-
常见问题
- 其他问题
- 计费问题
- 算法类问题
- 管理数据
- 管理产品
- 购买/定制技能
- 安装/启动技能
- HiLens Studio使用
- 技能开发
- 管理设备
- 注册设备
-
端侧设备HiLens Kit
- 设备介绍
- HiLens Kit硬件操作
-
HiLens Kit系统操作
- 如何使用SSH登录设备?
- 为什么更改设备系统密码后,使用新密码可以使用浏览器登录华为HiLens智能边缘管理系统,但是无法使用PuTTY登录设备?
- 如何对HiLens Kit系统进行底层操作?
- HiLens Kit可以导入自定义的Python模块吗?
- 如何在HiLens Kit安装yum?
- 如何管理设备文件?
- 如何在HiLens Kit安装软件包?
- 如何使用root登录设备,并关闭连接超时?
- 基于Python的openmv 的设备,是否支持通过调用API去调用HiLens Kit的技能?
- HiLens Kit不能显示中文怎么办?
- HiLens Kit如何清除已保存的wifi信息?
- HiLens Kit 如何使用命令行连接无线网络
- HiLens Kit如何配置永久性DNS?
- 视频帮助
- 文档下载
- 通用参考
链接复制成功!
导入/转换ModelArts开发模型
技能可以抽象地理解为算法模型+逻辑代码。算法模型负责关键的AI推理,逻辑代码负责处理模型推理的结果。因此在HiLens Studio开发技能时,需要将模型导入HiLens Studio。
本章节介绍如何将在ModelArts开发的模型导入HiLens Studio,以及针对非“om”格式的模型,如何在HiLens Studio进行模型转换。
前提条件
- 暂不支持导入ModelArts中“自动学习”训练的模型。
- 华为HiLens 只能导入ModelArts中训练的模型文件,不能导入ModelArts的模型。
导入(转换)模型
- 在HiLens Studio界面左侧,单击
。
页面左侧将显示您在ModelArts训练好的模型列表。
图1 模型列表 - 选择待导入、转换的模型,单击“Operation”列的“Apply”。
- 如果是“om”格式的模型,待模型导入成功后,HiLens Studio右下角会提示“Model imported successfully.”,文件夹“model”下会显示新导入的模型文件。
- 如果是非“om”格式的模型,会弹出“Convert Model”对话框。
按表1填写模型转换的信息,单击“OK”。
表1 Convert Model参数说明 参数
说明
Model Path
待转换的模型文件在技能项目文件中的位置。一般将模型导入至文件夹“save_model”。
Configuration
待转换模型的配置文件在技能项目文件中的位置。例如“save_model/aipp_rgb.cfg”。
Output Path
模型转换后输出位置。
Type
模型转换的类型,包括“TF-FrozenGraph-To-Ascend-HiLens”、“Caffe to Ascend”。
- “TF-FrozenGraph-To-Ascend-HiLens”
支持将Tensorflow frozen graph模型转换成可在ascend芯片上运行的模型。
- “Caffe to Ascend”
支持将Caffe模型转换成可在ascend芯片上运行的模型。
Advanced Options
当模型转换类型为“TF-FrozenGraph-To-Ascend-HiLens”时,可填写高级选项,包括张量形状、转换输出节点等参数选项,详情请见表2。
表2 Advanced Options 参数名称
参数说明
Input Tensor Shape
输入张量形状。若在上文“模型来源”中,选择需要转换格式的模型(非om格式模型),并且转换类型是“Tensorflow frozen graph 转 Ascend”或“Tensorflow SavedModel 转 Ascend”时,需要填写输入张量形状。
张量形状即模型输入数据的shape,输入数据格式为NHWC,如“input_name:1,224,224,3”,必填项。“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。
如果存在多个输入,请以分号(;)隔开。
out_nodes
转换输出节点,即指定输出节点,例如“node_name1:0;node_name1:1;node_name2:0”,其中“node_name”必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如“node_name1:0”,表示节点名称为“node_name1”的第0个输出。
input_format
输入数据格式,默认是“NHWC”,如果实际是“NCHW”的话,需要通过此参数指定“NCHW”。
net_format
优选数据格式,即指定网络算子优先选用的数据格式,“ND(N=4)”和“5D”。仅在网络中算子的输入数据同时支持“ND”和“5D”两种格式时,指定该参数才生效。“ND”表示模型中算子按“NCHW”转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。
fp16_high_precsion
生成高精度模型,指定是否生成高精度“FP16 Davinci”模型。
- 0为默认值,表示生成普通“FP16 Davinci”模型,推理性能更好。
- 1表示生成高精度“FP16 Davinci”模型,推理精度更好。
output_type
网络输出数据类型,“FP32”为默认值,推荐分类网络、检测网络使用;图像超分辨率网络,推荐使用“UINT8”,推理性能更好。
- “TF-FrozenGraph-To-Ascend-HiLens”