AI开发平台ModelArtsAI开发平台ModelArts

计算
弹性云服务器 ECS
云耀云服务器 HECS
裸金属服务器 BMS
弹性伸缩 AS
镜像服务 IMS
专属主机 DeH
函数工作流 FunctionGraph
云手机 CPH
VR云渲游平台 CVR
特惠算力专区
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
内容分发网络 CDN
存储容灾服务 SDRS
弹性文件服务 SFS
云服务器备份 CSBS
云硬盘备份 VBS
数据快递服务 DES
专属企业存储服务
智能边缘
智能边缘云 IEC
EI 企业智能
EI安视服务
AI开发平台ModelArts
数据湖治理中心 DGC
数据仓库服务 GaussDB(DWS)
企业级AI应用开发专业套件 ModelArts Pro
数据湖探索 DLI
华为HiLens
云搜索服务 CSS
数据接入服务 DIS
表格存储服务 CloudTable
数据湖工厂 DLF
图引擎服务 GES
推荐系统 RES
文字识别 OCR
内容审核 Moderation
图像识别 Image
图像搜索 ImageSearch
人脸识别服务 FRS
对话机器人服务 CBS
视频分析服务 VAS
数据可视化 DLV
视频接入服务 VIS
自然语言处理 NLP
语音交互服务 SIS
知识图谱 KG
医疗智能体 EIHealth
可信智能计算服务 TICS
园区智能体 CampusGo
实时流计算服务 CS
人证核身服务 IVS
IoT物联网
设备接入 IoTDA
IoT物联网
全球SIM联接 GSL
设备发放 IoTDP
IoT开发者服务
IoT边缘 IoTEdge
IoT数据分析
路网数字化服务 DRIS
开发与运维
项目管理 ProjectMan
代码托管 CodeHub
流水线 CloudPipeline
代码检查 CodeCheck
编译构建 CloudBuild
部署 CloudDeploy
云测 CloudTest
发布 CloudRelease
移动应用测试 MobileAPPTest
CloudIDE
Classroom
软件开发平台 DevCloud
开源镜像站 Mirrors
视频
媒体处理 MPC
视频点播 VOD
视频直播 Live
实时音视频 SparkRTC
管理与部署
统一身份认证服务 IAM
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云审计服务 CTS
云日志服务 LTS
标签管理服务 TMS
资源管理服务 RMS
应用身份管理服务 OneAccess
专属云
专属计算集群 DCC
专属分布式存储服务 DSS
域名与网站
域名注册服务 Domains
云速建站 CloudSite
企业协同
华为云WeLink
会议
ISDP
解决方案
全栈专属服务
高性能计算 HPC
SAP
游戏云
混合云灾备
快视频
华为工业云平台 IMC
价格
价格原则
成本优化最佳实践
昇腾
昇腾MindX SDK (20.3)
其他
管理控制台
消息中心
产品价格详情
系统权限
我的凭证
客户关联华为云合作伙伴须知
公共问题
宽限期保留期
奖励推广计划
活动
容器
云容器引擎 CCE
云容器实例 CCI
容器镜像服务 SWR
应用编排服务 AOS
容器交付流水线 ContainerOps
应用服务网格 ASM
多云容器平台 MCP
基因容器 GCS
容器洞察引擎 CIE
容器批量计算 BCE
云原生服务中心 OSC
网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
数据库
云数据库 RDS
文档数据库服务 DDS
分布式数据库中间件 DDM
数据复制服务 DRS
数据管理服务 DAS
云数据库 GaussDB(for MySQL)
云数据库 GaussDB NoSQL
云数据库 GaussDB (for openGauss)
数据库和应用迁移 UGO
大数据
MapReduce服务 MRS
应用中间件
应用管理与运维平台 ServiceStage
分布式缓存服务 DCS
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
消息通知服务 SMN
微服务引擎 CSE
云性能测试服务 CPTS
区块链服务 BCS
API网关 APIG
应用魔方 AppCube
分布式消息服务RocketMQ版
多云高可用服务 MAS
可信跨链数据链接服务 TCDAS
企业应用
云桌面 Workspace
云解析服务 DNS
应用与数据集成平台 ROMA Connect
ROMA资产中心 ROMAExchange
ROMA API
鸿源云道
华为乾坤
安全与合规
Web应用防火墙 WAF
漏洞扫描服务 VSS
企业主机安全 HSS
容器安全服务 CGS
数据加密服务 DEW
数据库安全服务 DBSS
态势感知 SA
云堡垒机 CBH
SSL证书管理 SCM
云证书管理服务 CCM
管理检测与响应 MDR
数据安全中心 DSC
威胁检测服务 MTD
DDoS防护 ADS
云防火墙 CFW
应用信任中心 ATC
安全技术与应用
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
智能协作
IdeaHub
企业网络
云管理网络
SD-WAN 云服务
边缘数据中心管理 EDCM
废弃-华为乾坤安全云服务
云通信
语音通话 VoiceCall
消息&短信 MSGSMS
隐私保护通话 PrivateNumber
开发者工具
SDK开发指南
API签名指南
DevStar
HCloud CLI
Terraform
Ansible
云生态
云市场
鲲鹏
昇腾
合作伙伴中心
华为云培训中心
用户服务
帐号中心
费用中心
成本中心
资源中心
企业管理
工单管理
客户运营能力
国际站常见问题
网站备案
支持计划
专业服务
合作伙伴支持计划
更新时间:2021/08/06 GMT+08:00
分享

转换模板

基于不同的AI框架,ModelArts提供的转换模板如下所示:

Caffe转Ascend

转换Caffe框架训练出来的模型, 转换后模型可在Ascend芯片上运行。

此模板无高级选项。

Tensorflow frozen_graph转TFLite

转换Tensorflow框架训练并以“frozen_graph”格式保存的模型,转换后模型可在ARM上运行。

表1 Tensorflow frozen_graph转TFLite的高级选项

参数名称

参数解释

“模型输入tensor名称”

以字符串形式输入模型输入张量名称,以“input1:input2”形式表示。

“模型输出tensor名称”

以字符串形式输入模型输出张量名称,以“output1:output2”形式表示。

“量化精度”

可选择8bit或32bit。32bit表示直接转换模型,8bit表示模型进行量化。

“量化批大小”

以数值形式输入量化批大小。必须为正整数。

Tensorflow saved_model转TFLite

转换Tensorflow框架训练并以“saved_model”格式保存的模型,转换后模型可在ARM上运行。

表2 Tensorflow saved_model转TFLite的高级选项

参数名称

参数解释

“模型签名”

以字符串形式输入模型输入tensor签名,默认会选择第一个签名。

“传入模型标签”

以字符串形式输入模型输出标签,默认会选择第一个标签。

“量化精度”

可选择8bit或32bit。32bit表示直接转换模型,8bit表示模型进行量化。

“量化批大小”

以数值形式输入量化批大小。必须为正整数。

Tensorflow frozen_graph转TensorRT

转换Tensorflow框架训练并以“frozen_graph”格式保存的模型,转换后模型可在GPU上运行。

表3 Tensorflow frozen_graph转TensorRT的高级选项

参数名称

参数解释

“模型输入tensor名称”

以字符串形式输入模型输入张量名称,以“input1:input2”形式表示。

“模型输出tensor名称”

以字符串形式输入模型输出张量名称,以“output1:output2”形式表示。

“量化精度”

可选择8bit或32bit。32bit表示直接转换模型,8bit表示模型进行量化。

“量化批大小”

以数值形式输入量化批大小。必须为正整数。

Tensorflow saved_model转TensorRT

转换Tensorflow框架训练并以“saved_model”格式保存的模型,转换后模型可在GPU上运行。

表4 Tensorflow saved_model转TensorRT的高级选项

参数名称

参数解释

“模型签名”

以字符串形式输入模型输入tensor签名,默认会选择第一个签名。

“传入模型标签”

以字符串形式输入模型输出标签,默认会选择第一个标签。

“量化精度”

可选择8bit或32bit。32bit表示直接转换模型,8bit表示模型进行量化。

“量化批大小”

以数值形式输入量化批大小。必须为正整数。

Tensorflow frozen graph 转 Ascend

转换Tensorflow框架训练并以“frozen_graph”格式保存的模型,转换后模型可在Ascend上运行。

表5 Tensorflow frozen graph 转 Ascend的高级选项

参数名称

参数解释

“输入张量形状”

模型输入数据的shape,输入数据格式为NHWC,如“input_name:1,224,224,3”,必填项。“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。目前不支持批量特性,转换输入张量形状batch只能为1。

TF-FrozenGraph-To-Ascend

转换Tensorflow框架训练并以“frozen_graph”格式保存的模型,转换后模型可在Ascend上运行。转换时支持使用基于TE(Tensor Engine)开发的自定义算子(TE算子)。

表6 支持自定义算子转换模板的高级选项

参数名称

参数解释

“输入张量形状”

模型输入数据的shape,如“input_name1:n1,c1,h1,w1;input_name2:n2,c2,h2,w2”“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。目前不支持批量特性,转换输入张量形状batch只能为1。转换时系统会解析输入模型获取输入张量并打印在日志中,如果不了解所使用模型的输入张量,可参考日志中的解析结果。

“输入数据格式”

支持NCHW和NHWC,默认是NHWC。当原始框架是TensorFlow时,默认是NHWC。如果实际是NCHW的话,需要通过此参数指定NCHW。原始框架为Caffe时,只支持NCHW格式。

“转换输出节点”

指定输出节点,例如“node_name1:0;node_name1:1;node_name2:0”,其中“node_name”必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如“node_name1:0”,表示节点名称为“node_name1”的第0个输出。如果不指定输出节点,则模型的输出默认为最后一层的算子信息,某些情况下,用户想要查看某层算子参数是否合适,则需要将该层算子的参数输出,即可以在模型转换时通过该参数指定输出某层算子。转换时系统会解析输入模型获取输出节点并打印在日志中,如果不了解所使用模型的输入张量,可以参考日志中的解析结果。

“优选数据格式”

指定网络算子优先选用的数据格式,“ND(N<=4)”“5D”。仅在网络中算子的输入数据同时支持“ND”“5D”两种格式时,指定该参数才会生效。“ND”表示模型中算子按NCHW转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。

“生成高精度模型”

指定是否生成高精度FP16 Davinci模型。“0”为默认值,表示生成普通FP16 Davinci模型,推理性能更好。“1”表示生成高精度FP16 Davinci模型,推理精度更好。高精度当前仅支持Caffe算子(Convolution、Pooling、FullConnection)和TensorFlow算子(tf.nn.conv2d、tf.nn.max_poo)。

“网络输出数据类型”

FP32为默认值,推荐分类网络、检测网络使用。图像超分辨率网络,推荐使用UINT8,推理性能更好。

TF-SavedModel-To-Ascend

转换Tensorflow框架训练并以“saved_model”格式保存的模型,转换后模型可在Ascend上运行。转换时支持使用基于TE(Tensor Engine)开发的自定义算子(TE算子)。

表7 支持自定义算子转换模板的高级选项

参数名称

参数解释

“输入张量形状”

模型输入数据的shape,如“input_name1:n1,c1,h1,w1;input_name2:n2,c2,h2,w2”“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。目前不支持批量特性,转换输入张量形状batch只能为1。转换时系统会解析输入模型获取输入张量并打印在日志中,如果不了解所使用模型的输入张量,可参考日志中的解析结果。

“输入数据格式”

支持NCHW和NHWC,默认是NHWC。当原始框架是TensorFlow时,默认是NHWC。如果实际是NCHW的话,需要通过此参数指定NCHW。原始框架为Caffe时,只支持NCHW格式。

“转换输出节点”

指定输出节点,例如“node_name1:0;node_name1:1;node_name2:0”,其中“node_name”必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如“node_name1:0”,表示节点名称为“node_name1”的第0个输出。如果不指定输出节点,则模型的输出默认为最后一层的算子信息,某些情况下,用户想要查看某层算子参数是否合适,则需要将该层算子的参数输出,即可以在模型转换时通过该参数指定输出某层算子。转换时系统会解析输入模型获取输出节点并打印在日志中,如果不了解所使用模型的输入张量,可以参考日志中的解析结果。

“优选数据格式”

指定网络算子优先选用的数据格式,“ND(N<=4)”“5D”。仅在网络中算子的输入数据同时支持“ND”“5D”两种格式时,指定该参数才会生效。“ND”表示模型中算子按NCHW转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。

“生成高精度模型”

指定是否生成高精度FP16 Davinci模型。“0”为默认值,表示生成普通FP16 Davinci模型,推理性能更好。“1”表示生成高精度FP16 Davinci模型,推理精度更好。高精度当前仅支持Caffe算子(Convolution、Pooling、FullConnection)和TensorFlow算子(tf.nn.conv2d、tf.nn.max_poo)。

“网络输出数据类型”

FP32为默认值,推荐分类网络、检测网络使用。图像超分辨率网络,推荐使用UINT8,推理性能更好。

Onnx-To-Ascend-TBE

转换onnx格式保存的模型,模型首先被转换为frozen_graph格式,然后再转换为可在Ascend上运行的模型。转换时支持使用基于TBE(Tensor Based Engine)开发的自定义算子(TBE算子)。

表8 支持自定义算子转换模板的高级选项

参数名称

参数解释

“输入张量形状”

模型输入数据的shape,如“input_name1:n1,c1,h1,w1;input_name2:n2,c2,h2,w2”“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。目前不支持批量特性,转换输入张量形状batch只能为1。转换时系统会解析输入模型获取输入张量并打印在日志中,如果不了解所使用模型的输入张量,可参考日志中的解析结果。

“输入数据格式”

支持NCHW和NHWC,默认是NHWC。当原始框架是TensorFlow时,默认是NHWC。如果实际是NCHW的话,需要通过此参数指定NCHW。原始框架为Caffe时,只支持NCHW格式。

“转换输出节点”

指定输出节点,例如“node_name1:0;node_name1:1;node_name2:0”,其中“node_name”必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如“node_name1:0”,表示节点名称为“node_name1”的第0个输出。如果不指定输出节点,则模型的输出默认为最后一层的算子信息,某些情况下,用户想要查看某层算子参数是否合适,则需要将该层算子的参数输出,即可以在模型转换时通过该参数指定输出某层算子。转换时系统会解析输入模型获取输出节点并打印在日志中,如果不了解所使用模型的输入张量,可以参考日志中的解析结果。

“优选数据格式”

指定网络算子优先选用的数据格式,“ND(N<=4)”“5D”。仅在网络中算子的输入数据同时支持“ND”“5D”两种格式时,指定该参数才会生效。“ND”表示模型中算子按NCHW转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。

“生成高精度模型”

指定是否生成高精度FP16 Davinci模型。“0”为默认值,表示生成普通FP16 Davinci模型,推理性能更好。“1”表示生成高精度FP16 Davinci模型,推理精度更好。高精度当前仅支持Caffe算子(Convolution、Pooling、FullConnection)和TensorFlow算子(tf.nn.conv2d、tf.nn.max_poo)。

“网络输出数据类型”

FP32为默认值,推荐分类网络、检测网络使用。图像超分辨率网络,推荐使用UINT8,推理性能更好。

TF-FrozenGraph-To-Ascend-C32

转换Tensorflow框架训练并以“frozen_graph”格式保存的模型,转换后模型可在Ascend上运行。转换时支持使用基于TBE(Tensor Based Engine)开发的自定义算子(TBE算子)。

表9 支持自定义算子转换模板的高级选项

参数名称

参数解释

“输入张量形状”

模型输入数据的shape,如“input_name1:n1,c1,h1,w1;input_name2:n2,c2,h2,w2”“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。目前不支持批量特性,转换输入张量形状batch只能为1。转换时系统会解析输入模型获取输入张量并打印在日志中,如果不了解所使用模型的输入张量,可参考日志中的解析结果。

“输入数据格式”

支持NCHW和NHWC,默认是NHWC。当原始框架是TensorFlow时,默认是NHWC。如果实际是NCHW的话,需要通过此参数指定NCHW。原始框架为Caffe时,只支持NCHW格式。

“转换输出节点”

指定输出节点,例如“node_name1:0;node_name1:1;node_name2:0”,其中“node_name”必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如“node_name1:0”,表示节点名称为“node_name1”的第0个输出。如果不指定输出节点,则模型的输出默认为最后一层的算子信息,某些情况下,用户想要查看某层算子参数是否合适,则需要将该层算子的参数输出,即可以在模型转换时通过该参数指定输出某层算子。转换时系统会解析输入模型获取输出节点并打印在日志中,如果不了解所使用模型的输入张量,可以参考日志中的解析结果。

“优选数据格式”

指定网络算子优先选用的数据格式,“ND(N<=4)”“5D”。仅在网络中算子的输入数据同时支持“ND”“5D”两种格式时,指定该参数才会生效。“ND”表示模型中算子按NCHW转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。

“生成高精度模型”

指定是否生成高精度FP16 Davinci模型。“0”为默认值,表示生成普通FP16 Davinci模型,推理性能更好。“1”表示生成高精度FP16 Davinci模型,推理精度更好。高精度当前仅支持Caffe算子(Convolution、Pooling、FullConnection)和TensorFlow算子(tf.nn.conv2d、tf.nn.max_poo)。

“网络输出数据类型”

FP32为默认值,推荐分类网络、检测网络使用。图像超分辨率网络,推荐使用UINT8,推理性能更好。

TF-SavedModel-To-Ascend-C32

转换Tensorflow框架训练并以“saved_model”格式保存的模型,转换后模型可在Ascend上运行。转换时支持使用基于TE(Tensor Engine)开发的自定义算子(TE算子)。

表10 支持自定义算子转换模板的高级选项

参数名称

参数解释

“输入张量形状”

模型输入数据的shape,如“input_name1:n1,c1,h1,w1;input_name2:n2,c2,h2,w2”“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。目前不支持批量特性,转换输入张量形状batch只能为1。转换时系统会解析输入模型获取输入张量并打印在日志中,如果不了解所使用模型的输入张量,可参考日志中的解析结果。

“输入数据格式”

支持NCHW和NHWC,默认是NHWC。当原始框架是TensorFlow时,默认是NHWC。如果实际是NCHW的话,需要通过此参数指定NCHW。原始框架为Caffe时,只支持NCHW格式。

“转换输出节点”

指定输出节点,例如“node_name1:0;node_name1:1;node_name2:0”,其中“node_name”必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如“node_name1:0”,表示节点名称为“node_name1”的第0个输出。如果不指定输出节点,则模型的输出默认为最后一层的算子信息,某些情况下,用户想要查看某层算子参数是否合适,则需要将该层算子的参数输出,即可以在模型转换时通过该参数指定输出某层算子。转换时系统会解析输入模型获取输出节点并打印在日志中,如果不了解所使用模型的输入张量,可以参考日志中的解析结果。

“优选数据格式”

指定网络算子优先选用的数据格式,“ND(N<=4)”“5D”。仅在网络中算子的输入数据同时支持“ND”“5D”两种格式时,指定该参数才会生效。“ND”表示模型中算子按NCHW转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。

“生成高精度模型”

指定是否生成高精度FP16 Davinci模型。“0”为默认值,表示生成普通FP16 Davinci模型,推理性能更好。“1”表示生成高精度FP16 Davinci模型,推理精度更好。高精度当前仅支持Caffe算子(Convolution、Pooling、FullConnection)和TensorFlow算子(tf.nn.conv2d、tf.nn.max_poo)。

“网络输出数据类型”

FP32为默认值,推荐分类网络、检测网络使用。图像超分辨率网络,推荐使用UINT8,推理性能更好。

TF-FrozenGraph-To-Ascend-HiLens

主要提供给华为HiLens使用,当HiLens Kit系统固件版本为2.2.200.011时建议使用此模板进行转换。支持将TensorFlow frozen_graph模型转换成可在ascend芯片上运行的模型,转换时支持使用基于TE(Tensor Engine)开发的自定义算子。

表11 支持自定义算子转换模板的高级选项

参数名称

参数解释

“输入张量形状”

模型输入数据的shape,如“input_name1:n1,c1,h1,w1;input_name2:n2,c2,h2,w2”“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。目前不支持批量特性,转换输入张量形状batch只能为1。转换时系统会解析输入模型获取输入张量并打印在日志中,如果不了解所使用模型的输入张量,可参考日志中的解析结果。

“输入数据格式”

支持NCHW和NHWC,默认是NHWC。当原始框架是TensorFlow时,默认是NHWC。如果实际是NCHW的话,需要通过此参数指定NCHW。原始框架为Caffe时,只支持NCHW格式。

“转换输出节点”

指定输出节点,例如“node_name1:0;node_name1:1;node_name2:0”,其中“node_name”必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如“node_name1:0”,表示节点名称为“node_name1”的第0个输出。如果不指定输出节点,则模型的输出默认为最后一层的算子信息,某些情况下,用户想要查看某层算子参数是否合适,则需要将该层算子的参数输出,即可以在模型转换时通过该参数指定输出某层算子。转换时系统会解析输入模型获取输出节点并打印在日志中,如果不了解所使用模型的输入张量,可以参考日志中的解析结果。

“优选数据格式”

指定网络算子优先选用的数据格式,“ND(N<=4)”“5D”。仅在网络中算子的输入数据同时支持“ND”“5D”两种格式时,指定该参数才会生效。“ND”表示模型中算子按NCHW转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。

“生成高精度模型”

指定是否生成高精度FP16 Davinci模型。“0”为默认值,表示生成普通FP16 Davinci模型,推理性能更好。“1”表示生成高精度FP16 Davinci模型,推理精度更好。高精度当前仅支持Caffe算子(Convolution、Pooling、FullConnection)和TensorFlow算子(tf.nn.conv2d、tf.nn.max_poo)。

“网络输出数据类型”

FP32为默认值,推荐分类网络、检测网络使用。图像超分辨率网络,推荐使用UINT8,推理性能更好。

TF-SavedModel-To-Ascend-HiLens

主要提供给华为HiLens使用,当HiLens Kit系统固件版本为2.2.200.011时建议使用此模板进行转换。支持将TensorFlow saved_model模型转换成可在ascend芯片上运行的模型,转换时支持使用基于TE(Tensor Engine)开发的自定义算子。

表12 支持自定义算子转换模板的高级选项

参数名称

参数解释

“输入张量形状”

模型输入数据的shape,如“input_name1:n1,c1,h1,w1;input_name2:n2,c2,h2,w2”“input_name”必须是转换前的网络模型中的节点名称。当模型存在动态shape输入时必须提供。例如“input_name1:?,h,w,c”,该参数必填,其中“?”为batch数,表示1次处理的图片数量,需要根据实际情况填写,用于将动态shape的原始模型转换为固定shape的离线模型。目前不支持批量特性,转换输入张量形状batch只能为1。转换时系统会解析输入模型获取输入张量并打印在日志中,如果不了解所使用模型的输入张量,可参考日志中的解析结果。

“输入数据格式”

支持NCHW和NHWC,默认是NHWC。当原始框架是TensorFlow时,默认是NHWC。如果实际是NCHW的话,需要通过此参数指定NCHW。原始框架为Caffe时,只支持NCHW格式。

“转换输出节点”

指定输出节点,例如“node_name1:0;node_name1:1;node_name2:0”,其中“node_name”必须是模型转换前的网络模型中的节点名称,冒号后的数字表示第几个输出,例如“node_name1:0”,表示节点名称为“node_name1”的第0个输出。如果不指定输出节点,则模型的输出默认为最后一层的算子信息,某些情况下,用户想要查看某层算子参数是否合适,则需要将该层算子的参数输出,即可以在模型转换时通过该参数指定输出某层算子。转换时系统会解析输入模型获取输出节点并打印在日志中,如果不了解所使用模型的输入张量,可以参考日志中的解析结果。

“优选数据格式”

指定网络算子优先选用的数据格式,“ND(N<=4)”“5D”。仅在网络中算子的输入数据同时支持“ND”“5D”两种格式时,指定该参数才会生效。“ND”表示模型中算子按NCHW转换成通用格式,“5D”表示模型中算子按华为自研的5维转换成华为格式。“5D”为默认值。

“生成高精度模型”

指定是否生成高精度FP16 Davinci模型。“0”为默认值,表示生成普通FP16 Davinci模型,推理性能更好。“1”表示生成高精度FP16 Davinci模型,推理精度更好。高精度当前仅支持Caffe算子(Convolution、Pooling、FullConnection)和TensorFlow算子(tf.nn.conv2d、tf.nn.max_poo)。

“网络输出数据类型”

FP32为默认值,推荐分类网络、检测网络使用。图像超分辨率网络,推荐使用UINT8,推理性能更好。

分享:

    相关文档

    相关产品