盘古大模型 PanguLargeModels
盘古大模型 PanguLargeModels
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
- 用户指南
- 最佳实践
- API参考
- SDK参考
-
常见问题
- 高频常见问题
- 大模型概念类
-
大模型微调训练类
- 无监督领域知识数据量无法支持增量预训练,如何进行模型学习
- 如何调整训练参数,使盘古大模型效果最优
- 如何判断盘古大模型训练状态是否正常
- 如何评估微调后的盘古大模型是否正常
- 如何调整推理参数,使盘古大模型效果最优
- 为什么微调后的盘古大模型总是重复相同的回答
- 为什么微调后的盘古大模型的回答中会出现乱码
- 为什么微调后的盘古大模型的回答会异常中断
- 为什么微调后的盘古大模型只能回答训练样本中的问题
- 为什么在微调后的盘古大模型中输入训练样本问题,回答完全不同
- 为什么微调后的盘古大模型评估结果很好,但实际场景表现很差
- 为什么多轮问答场景的盘古大模型微调效果不好
- 数据量足够,为什么盘古大模型微调效果仍然不好
- 数据量和质量均满足要求,为什么盘古大模型微调效果不好
- 大模型使用类
- 提示词工程类
- 视频帮助
- 文档下载
- 通用参考
本文导读
展开导读
链接复制成功!
如何判断任务场景应通过调整提示词还是场景微调解决
在选择是否通过调整提示词或场景微调来解决任务时,需要从以下两个主要方面进行考虑:
- 业务数据的可获取性
考虑该任务场景的业务数据是否公开可获取。如果该场景的相关数据可以公开获取,说明模型在训练阶段可能已经接触过类似的语料,因此具有一定的理解能力。这时,通过调整提示词通常可以有效引导模型生成合理的回答。
例如,对于一些常见的问答场景(如常见百科问题),由于这些领域的相关数据广泛存在,模型通常能够较好地理解并生成准确回答。在这种情况下,通过调整提示词来引导模型的生成风格和细节,通常可以达到较好的效果。
- 业务逻辑的复杂性
判断任务场景的业务逻辑是否符合通用逻辑。如果场景中的业务逻辑较为简单、通用且易于理解,那么调整提示词是一个可行的方案。
例如,对于一般的常规问题解答等场景,可以通过在提示词中引导模型学习如何简洁明了地作答。
如果场景涉及较为复杂、专业的业务逻辑(例如金融分析、医疗诊断等),则需要更为精确的处理方式:
- 如果该场景的业务规则较少且易于概括,可以尝试使用few-shot方式,通过向模型提供少量示例来让其理解任务并进行推理。
- 如果业务规则复杂且难以归纳,建议使用场景微调的方式,针对该特定场景进行模型训练,以便模型能够更深入地理解和适应这些复杂规则。
父主题: 提示词工程类