细节丰富度
细节丰富度评估器
|
分类 |
详情 |
|
|---|---|---|
|
基础信息 |
评估器名称 |
细节丰富度 |
|
效果说明 |
功能概述 |
检查输出内容是否表现出关注细节。 |
|
评估方式 |
LLM评估 |
|
|
评估目标 |
文本、输出质量 |
|
|
应用场景 |
适用于产品描述、操作指南、故障排查、创意写作等需要精确传达信息的场景,确保模型输出涵盖关键细节,避免笼统模糊导致理解偏差或执行失误。 |
|
|
评分标准 |
1.0分 |
细节极其丰富,关键要素完整呈现,粒度恰当,无遗漏,用户无需额外追问即可全面理解。 |
|
0.75 |
细节较为丰富,核心要素覆盖较好,偶有次要细节省略,不影响整体理解。 |
|
|
0.5 |
细节一般,关键要素部分缺失或粒度不足,用户需结合常识推断或补充提问。 |
|
|
0.25分 |
细节匮乏,大量关键要素缺失,表述笼统模糊,用户难以形成清晰认知。 |
|
|
0.0分 |
无细节可言,内容空洞抽象,关键信息全部缺失,完全无法指导理解或行动。 |
|
评估器参数说明:
|
参数类型 |
参数名称 |
是否必填 |
参数说明 |
|---|---|---|---|
|
输入参数 |
input |
是 |
用户的输入问题,提供评估的上下文背景。 |
|
actual_output |
是 |
智能体针对该问题的实际输出结果。 |
|
|
输出参数 |
score |
是 |
评估得分(0.0 / 0.25 / 0.5 / 0.75 / 1.0)。 |
|
reason |
是 |
评分理由说明。 |
输入格式示例:
{
"input": "如何提高Python程序的运行效率?",
"actual_output": "可以使用列表推导式、避免全局变量、多用内置函数,这样会快一点。"
}
输出格式示例:
{
"score": "0.5",
"reason": "回复虽提及优化方向,但未给出具体示例、性能对比数据或代码片段,缺乏对“列表推导式为何更快”等关键机制的解释,属于“细节不足/一般”水平。"
}