更新时间:2021-03-18 GMT+08:00
分享

quantize_model

功能说明

根据用户设置的量化配置文件对图结构进行量化处理,该函数在config_file指定的层完成参数量化,并插入数据量化层,将修改后的网络存为新的模型文件。

函数原型

quantize_model(graph, modified_model_file, modified_weights_file)

参数说明

参数名

输入/输出

含义

使用限制

graph

输入

用户模型经过init接口解析出来的图结构。

数据类型:工具自定义的数据结构Graph

modified_model_file

输入

文件名,用于存储插入量化层Caffe模型的定义文件(格式为.prototxt)。

数据类型:string

modified_weights_file

输入

文件名,用于存储插入量化层的Caffe模型权重文件(格式为.caffemodel)。

数据类型:string

返回值说明

无。

函数输出

  • 量化因子: 在init接口中的scale_offset_record_file中写入量化层的权重量化因子(scale_w,offset_w)。
  • modified_model_file:修改后模型的定义文件,在原始模型上插入了量化层。
  • modified_weights_file:修改后模型的权重文件,在原始模型上插入了量化层。

重新执行量化时,该接口输出的文件将会被覆盖。

调用示例

from amct_caffe import quantize_model
# 插入量化API
quantize_model(graph=graph,
               modified_model_file="./quantized_model/modified_model.prototxt",
               modified_weights_file="./quantized_model/modified_model.caffemodel")
分享:

    相关文档

    相关产品

close