Loss对齐结果
在排查完精度偏差来源之后发现,Loss最大绝对偏差减少为0.0003,Loss结果对齐。
需要注意训练引入随机性的目的是为了增加结果的鲁棒性,理论上不会对训练模型的收敛与否造成影响。
此处做随机性固定主要的目的是为了训练结果可完全复现,从而实现NPU和标杆的精度对齐。
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在排查完精度偏差来源之后发现,Loss最大绝对偏差减少为0.0003,Loss结果对齐。
需要注意训练引入随机性的目的是为了增加结果的鲁棒性,理论上不会对训练模型的收敛与否造成影响。
此处做随机性固定主要的目的是为了训练结果可完全复现,从而实现NPU和标杆的精度对齐。