更新时间:2025-07-04 GMT+08:00

盘古大模型

盘古大模型连接器用于对接华为云盘古大模型云服务。

盘古大模型(PanguLargeModels)是集数据管理、模型训练和模型部署于一体的一站式大模型开发与应用平台。平台支持大模型的定制开发,提供全生命周期工具链,帮助开发者高效构建与部署模型,企业可灵活选择适合的服务与产品,轻松实现模型与应用的开发。

创建盘古大模型连接

  1. 登录新版ROMA Connect控制台。
  2. 在左侧导航栏选择“连接器”,在连接器页面单击“新建连接”。
  3. 选择“盘古大模型“连接器。
  4. 在弹窗中配置连接信息,完成后单击“确定“。

    参数

    说明

    连接名称

    填写连接器实例名称。

    访问密钥ID

    当前账号的AK(Access Key ID)。请参考访问密钥获取AK,如果已生成过AK/SK,找到原来已下载的AK/SK文件,文件名一般为:credentials.csv。

    秘密访问密钥

    当前账号的SK(Secret Access Key)。请参考访问密钥获取SK,如果已生成过AK/SK,找到原来已下载的AK/SK文件,文件名一般为credentials.csv。

    描述

    填写连接器的描述信息,用于识别不同的连接器。

支持的动作

  • 对话问答
  • 通用文本

配置参数

表1 对话问答

参数

说明

Content-Type

发送的实体的MIME类型。

project_id

项目ID。

deployment_id

模型的部署ID。

region_id

区域ID。

messages

多轮对话问答。

role

角色。

content

问答对文本内容。

user

用于代表客户的唯一标识符,最小长度:1,最大长度:64。

stream

流式调用的开启开关。

  • true为开启流式调用,如果要开启流式调用,请使用流式SDK;
  • false为关闭流式调用。默认为关闭状态。

temperature

用于控制生成文本的多样性和创造力。参数的取值范围是0到1,其中0表示最低的随机性。一般来说,temperature越低,适合完成确定性的任务。temperature越高,例如0.9,适合完成创造性的任务。temperature参数可以影响语言模型输出的质量和多样性,但也不是唯一的因素。还有其他一些参数,如top_p参数也可以用来调整语言模型的行为和偏好,但不建议同时更改这两个参数。

top_p

一种替代温度采样的方法,称为nucleus sampling,其中模型考虑具有top_p概率质量的标记的结果。因此0.1意味着只考虑构成前10%概率质量的标记。通常建议更改此值或温度,但不要同时更改两者。通常建议更改top_p或temperature来调整生成文本的倾向性,但不要同时更改这两个参数。

max_tokens

用于控制聊天回复的长度和质量。一般来说,较大的max_tokens值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的max_tokens值可以生成较短和较简洁的回复,但也可能导致生成不完整或不连贯的内容。因此,需要根据不同的场景和需求来选择合适的max_tokens值。最小值:1,最大值:2048,默认值:16。

n

表示对每个问题生成多少条答案。n参数的默认值是1,表示只生成一个答案。如果想要生成多条答案,可以设置n参数为一个大于1的整数,例如n=2。这样,API会返回一个包含2个答案的数组。最小值:1,最大值:2,默认值:1。

presence_penalty

用于控制生成文本中的重复程度。正值会根据它们到目前为止在文本中的现有频率来惩罚新tokens,从而降低模型逐字重复同一行的可能性。 presence_penalty 参数可以用来提高生成文本的多样性和创造性,避免生成单调或重复的内容。最小值:-2,最大值:2。

表2 对通用文本

参数

说明

Content-Type

发送的实体的MIME类型。

project_id

项目ID。

deployment_id

模型的部署ID。

region_id

区域ID。

prompt

向模型输入的文本信息,最小长度:1,最大长度:4096。

user

用于代表客户的唯一标识符,最小长度:1,最大长度:64。

stream

流式调用的开启开关。

  • true为开启流式调用,如果要开启流式调用,请使用流式SDK;
  • false为关闭流式调用。默认为关闭状态。

temperature

用于控制生成文本的多样性和创造力。参数的取值范围是0到1,其中0表示最低的随机性。一般来说,temperature越低,适合完成确定性的任务。temperature越高,例如0.9,适合完成创造性的任务。temperature参数可以影响语言模型输出的质量和多样性,但也不是唯一的因素。还有其他一些参数,如top_p参数也可以用来调整语言模型的行为和偏好,但不建议同时更改这两个参数。

top_p

一种替代温度采样的方法,称为nucleus sampling,其中模型考虑具有top_p概率质量的标记的结果。因此0.1意味着只考虑构成前10%概率质量的标记。我们通常建议更改此值或温度,但不要同时更改两者。通常建议更改top_p或temperature来调整生成文本的倾向性,但不要同时更改这两个参数。

max_tokens

用于控制聊天回复的长度和质量。一般来说,较大的max_tokens值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的max_tokens值可以生成较短和较简洁的回复,但也可能导致生成不完整或不连贯的内容。因此,需要根据不同的场景和需求来选择合适的max_tokens值。最小值:1,最大值:2048,默认值:16。

n

表示对每个问题生成多少条答案。n参数的默认值是1,表示只生成一个答案。如果想要生成多条答案,可以设置n参数为一个大于1的整数,例如n=2。这样,API会返回一个包含2个答案的数组。最小值:1,最大值:2,默认值:1。

presence_penalty

用于控制生成文本中的重复程度。正值会根据它们到目前为止在文本中的现有频率来惩罚新tokens,从而降低模型逐字重复同一行的可能性。 presence_penalty 参数可以用来提高生成文本的多样性和创造性,避免生成单调或重复的内容。最小值:-2,最大值:2。