更新时间:2022-12-14 GMT+08:00
分享

评估模型

训练得到模型之后,整个开发过程还不算结束,需要对模型进行评估和考察。一次性很难获得一个满意的模型,需要反复的调整算法参数、数据,不断评估训练生成的模型。

一些常用的指标,如精准率、召回率、F1值等,能帮助您有效的评估,最终获得一个满意的模型。

前提条件

已在自然语言处理套件控制台选择“通用文本分类工作流”新建应用,并训练模型,详情请见训练模型

整体评估

“模型评估”页面,您可以针对当前版本的模型进行整体评估。

“整体评估”左侧显示当前模型的版本、标签数量、验证集数量。

“整体评估”右侧显示当前模型的评估参数值,包括“精准率”“召回率”“F1值”。您可以在上方单击选择“评估范围”,单击“添加对比版本”

图1 整体评估

详细评估

“模型评估”页面,您可以搜索查看测试集中数据模型预测结果。

“详细评估”左侧在搜索框中搜索标签,右侧显示正确标签所对应样本的正确标签和预测标签,您可以对比正确标签和预测标签,判断当前模型对该样本的预测是否正确。

例如搜索框内输入标签“1”,下方会显示正确标签为“1”的样本中,预测正确的样本数在验证集中的占比。右侧显示正确标签为“1”的样本信息,包括样本的正确标签和预测标签。

图2 详细评估

后续操作

针对当前版本的模型,经过“整体评估”“详细评估”后,如果根据业务需求,模型还需继续优化,请单击“上一步”,回到“模型训练”步骤,详细操作指导请见训练模型

如果模型已达到业务需求,请单击“发布部署”,进入“服务部署”步骤,详情请见部署服务

相关文档