盘古大模型 PanguLargeModels
盘古大模型 PanguLargeModels
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
-
用户指南
- 盘古大模型服务ModelArts Studio大模型开发平台使用流程
- 准备工作
- 在模型广场查看模型
- 使用数据工程构建数据集
- 开发盘古NLP大模型
- 开发盘古CV大模型
- 开发盘古预测大模型
- 开发盘古科学计算大模型
- 开发盘古搜索规划模型
- 开发盘古向量&重排模型
- 开发盘古行业大模型
- 开发Deepseek大模型
- 开发图像搜索模型
- 开发提示词工程
- 开发Agent应用
- 管理空间资产
- 管理资源池
- 最佳实践
- API参考
- SDK参考
-
常见问题
- 高频常见问题
- 大模型概念类
-
大模型微调训练类
- 无监督领域知识数据量无法支持增量预训练,如何进行模型学习
- 如何调整训练参数,使盘古大模型效果最优
- 如何判断盘古大模型训练状态是否正常
- 如何评估微调后的盘古大模型是否正常
- 如何调整推理参数,使盘古大模型效果最优
- 为什么微调后的盘古大模型总是重复相同的回答
- 为什么微调后的盘古大模型的回答中会出现乱码
- 为什么微调后的盘古大模型的回答会异常中断
- 为什么微调后的盘古大模型只能回答训练样本中的问题
- 为什么在微调后的盘古大模型中输入训练样本问题,回答完全不同
- 为什么微调后的盘古大模型评估结果很好,但实际场景表现很差
- 为什么多轮问答场景的盘古大模型微调效果不好
- 数据量足够,为什么盘古大模型微调效果仍然不好
- 数据量和质量均满足要求,为什么盘古大模型微调效果不好
- 大模型使用类
- 提示词工程类
- 视频帮助
- 文档下载
- 通用参考
本文导读
展开导读
链接复制成功!
为什么其他大模型适用的提示词在盘古大模型上效果不佳
- 提示词与训练数据的相似度关系。
提示词的效果通常与训练数据的相似度密切相关。当提示词的内容与模型在训练过程中接触过的样本数据相似时,模型更容易理解提示词并生成相关的输出。这是因为模型通过学习大量的训练数据,逐渐建立起对特定模式、结构和语言的理解,因此,提示词中包含的关键词、句式和语境如果与训练数据中的模式接近,模型能够“回忆”并运用已学习的知识和指令。
- 不同模型间效果差异。
由于不同厂商采用的训练策略和数据集差异,同一提示词在不同模型上的效果可能大不相同。由于不同厂商采用的训练策略和数据集差异,同一提示词在不同模型上的效果可能大不相同。例如,某些模型可能在处理特定领域的数据时表现得更好,而另一些模型则可能在更广泛的任务上更为出色。
- 根据盘古大模型特点调整提示词。
直接使用在其他大模型上有效的提示词,可能无法在盘古大模型上获得相同的效果。为了充分发挥盘古大模型的潜力,建议根据盘古大模型的特点,单独调整提示词。直接使用在其他大模型上有效的提示词,可能无法在盘古大模型上获得相同的效果。为了充分发挥盘古大模型的潜力,建议根据盘古大模型的特点,单独调整提示词。
父主题: 提示词工程类