盘古大模型 PanguLargeModels
盘古大模型 PanguLargeModels
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
-
用户指南
- 盘古大模型服务ModelArts Studio大模型开发平台使用流程
- 准备工作
- 在模型广场查看模型
- 使用数据工程构建数据集
- 开发盘古NLP大模型
- 开发盘古CV大模型
- 开发盘古预测大模型
- 开发盘古科学计算大模型
- 开发盘古搜索规划模型
- 开发盘古向量&重排模型
- 开发盘古行业大模型
- 开发Deepseek大模型
- 开发图像搜索模型
- 开发提示词工程
- 开发Agent应用
- 管理空间资产
- 管理资源池
- 最佳实践
- API参考
- SDK参考
-
常见问题
- 高频常见问题
- 大模型概念类
-
大模型微调训练类
- 无监督领域知识数据量无法支持增量预训练,如何进行模型学习
- 如何调整训练参数,使盘古大模型效果最优
- 如何判断盘古大模型训练状态是否正常
- 如何评估微调后的盘古大模型是否正常
- 如何调整推理参数,使盘古大模型效果最优
- 为什么微调后的盘古大模型总是重复相同的回答
- 为什么微调后的盘古大模型的回答中会出现乱码
- 为什么微调后的盘古大模型的回答会异常中断
- 为什么微调后的盘古大模型只能回答训练样本中的问题
- 为什么在微调后的盘古大模型中输入训练样本问题,回答完全不同
- 为什么微调后的盘古大模型评估结果很好,但实际场景表现很差
- 为什么多轮问答场景的盘古大模型微调效果不好
- 数据量足够,为什么盘古大模型微调效果仍然不好
- 数据量和质量均满足要求,为什么盘古大模型微调效果不好
- 大模型使用类
- 提示词工程类
- 视频帮助
- 文档下载
- 通用参考
本文导读
展开导读
链接复制成功!
数据量和质量均满足要求,为什么盘古大模型微调效果不好
这种情况可能是由于以下原因导致的,建议您排查:
- 训练参数设置:您可以通过绘制Loss曲线查询来确认模型的训练过程是否出现了问题,这种情况大概率是由于训练参数设置的不合理而导致了欠拟合或过拟合。请检查训练参数中的 “训练轮次”或“学习率”等参数的设置,根据实际情况调整训练参数,帮助模型更好学习。
- Prompt设置:请检查您使用的Prompt,对于同一个目标任务,建议在推理阶段使用和训练数据相同或相似的PROMPT,才能发挥出模型的最佳效果。
- 模型规格:理论上模型的参数规模越大,模型能学到的知识就越多,能学会的知识就更难,若目标任务本身难度较大,建议您替换参数规模更大的模型。
父主题: 大模型微调训练类