文档首页> AI开发平台ModelArts> 最佳实践> 昇腾业务迁移> AIGC推理业务昇腾迁移指导> 常见问题> AOE的自动性能调优使用上完全没有效果怎么办?
更新时间:2024-03-14 GMT+08:00
分享

AOE的自动性能调优使用上完全没有效果怎么办?

在MindSpore Lite Convertor2.1版本之前可能出现的调优不生效的场景,建议直接使用MindSpore Lite Convertor2.1及以后的版本。配置文件指定选项进行AOE调优。使用转换工具配置config参数,具体如下所示,其中“subgraph tuning”表示子图调优,“operator tuning”表示算子调优。

其中,“ge.op_compiler_cache_mode”在该场景下必须设置为“force”,表示该场景下要强制刷新缓存,保证AOE调优后的知识库能够命中,实现模型调优。示例如下:

# config.ini

[ascend_context]
aoe_mode="subgraph tuning, operator tuning"
[acl_init_options]
ge.op_compiler_cache_mode="force"
分享:

    相关文档

    相关产品