盘古大模型
盘古大模型连接器用于对接华为云盘古大模型云服务。
盘古大模型(PanguLargeModels)是集数据管理、模型训练和模型部署于一体的一站式大模型开发与应用平台。平台支持大模型的定制开发,提供全生命周期工具链,帮助开发者高效构建与部署模型,企业可灵活选择适合的服务与产品,轻松实现模型与应用的开发。
创建盘古大模型连接
- 登录新版ROMA Connect控制台。
- 在左侧导航栏选择“连接器”,在连接器页面单击“新建连接”。
- 选择“盘古大模型“连接器。
- 在弹窗中配置连接信息,完成后单击“确定“。
支持的动作
- 对话问答
- 通用文本
配置参数
参数 |
说明 |
---|---|
Content-Type |
发送的实体的MIME类型。 |
project_id |
项目ID。 |
deployment_id |
模型的部署ID。 |
region_id |
区域ID。 |
messages |
多轮对话问答。 |
role |
角色。 |
content |
问答对文本内容。 |
user |
用于代表客户的唯一标识符,最小长度:1,最大长度:64。 |
stream |
流式调用的开启开关。
|
temperature |
用于控制生成文本的多样性和创造力。参数的取值范围是0到1,其中0表示最低的随机性。一般来说,temperature越低,适合完成确定性的任务。temperature越高,例如0.9,适合完成创造性的任务。temperature参数可以影响语言模型输出的质量和多样性,但也不是唯一的因素。还有其他一些参数,如top_p参数也可以用来调整语言模型的行为和偏好,但不建议同时更改这两个参数。 |
top_p |
一种替代温度采样的方法,称为nucleus sampling,其中模型考虑具有top_p概率质量的标记的结果。因此0.1意味着只考虑构成前10%概率质量的标记。通常建议更改此值或温度,但不要同时更改两者。通常建议更改top_p或temperature来调整生成文本的倾向性,但不要同时更改这两个参数。 |
max_tokens |
用于控制聊天回复的长度和质量。一般来说,较大的max_tokens值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的max_tokens值可以生成较短和较简洁的回复,但也可能导致生成不完整或不连贯的内容。因此,需要根据不同的场景和需求来选择合适的max_tokens值。最小值:1,最大值:2048,默认值:16。 |
n |
表示对每个问题生成多少条答案。n参数的默认值是1,表示只生成一个答案。如果想要生成多条答案,可以设置n参数为一个大于1的整数,例如n=2。这样,API会返回一个包含2个答案的数组。最小值:1,最大值:2,默认值:1。 |
presence_penalty |
用于控制生成文本中的重复程度。正值会根据它们到目前为止在文本中的现有频率来惩罚新tokens,从而降低模型逐字重复同一行的可能性。 presence_penalty 参数可以用来提高生成文本的多样性和创造性,避免生成单调或重复的内容。最小值:-2,最大值:2。 |
参数 |
说明 |
---|---|
Content-Type |
发送的实体的MIME类型。 |
project_id |
项目ID。 |
deployment_id |
模型的部署ID。 |
region_id |
区域ID。 |
prompt |
向模型输入的文本信息,最小长度:1,最大长度:4096。 |
user |
用于代表客户的唯一标识符,最小长度:1,最大长度:64。 |
stream |
流式调用的开启开关。
|
temperature |
用于控制生成文本的多样性和创造力。参数的取值范围是0到1,其中0表示最低的随机性。一般来说,temperature越低,适合完成确定性的任务。temperature越高,例如0.9,适合完成创造性的任务。temperature参数可以影响语言模型输出的质量和多样性,但也不是唯一的因素。还有其他一些参数,如top_p参数也可以用来调整语言模型的行为和偏好,但不建议同时更改这两个参数。 |
top_p |
一种替代温度采样的方法,称为nucleus sampling,其中模型考虑具有top_p概率质量的标记的结果。因此0.1意味着只考虑构成前10%概率质量的标记。我们通常建议更改此值或温度,但不要同时更改两者。通常建议更改top_p或temperature来调整生成文本的倾向性,但不要同时更改这两个参数。 |
max_tokens |
用于控制聊天回复的长度和质量。一般来说,较大的max_tokens值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的max_tokens值可以生成较短和较简洁的回复,但也可能导致生成不完整或不连贯的内容。因此,需要根据不同的场景和需求来选择合适的max_tokens值。最小值:1,最大值:2048,默认值:16。 |
n |
表示对每个问题生成多少条答案。n参数的默认值是1,表示只生成一个答案。如果想要生成多条答案,可以设置n参数为一个大于1的整数,例如n=2。这样,API会返回一个包含2个答案的数组。最小值:1,最大值:2,默认值:1。 |
presence_penalty |
用于控制生成文本中的重复程度。正值会根据它们到目前为止在文本中的现有频率来惩罚新tokens,从而降低模型逐字重复同一行的可能性。 presence_penalty 参数可以用来提高生成文本的多样性和创造性,避免生成单调或重复的内容。最小值:-2,最大值:2。 |