- 最新动态
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
- AppStage使用前准备
- AI原生应用引擎用户指南
- 开发中心用户指南
-
运维中心用户指南
- 运维中心简介
- 运维中心使用前准备
- 运维中心使用流程
- 进入运维中心
- 接入资源
- 部署应用
- 监控资源和应用
- 管理已纳管资源
- 管理运行时资源
- 管理工单
- 运营中心用户指南
- 最佳实践
- 开发指南
- API参考
- SDK参考
-
常见问题
- 权限管理
-
AI原生应用引擎
- 我创建的微调数据集会被其他用户调用去训练他们的大模型吗?
- 模型微调任务一直在等待中是什么原因?
- 大模型微调需要的数据有要求吗?
- AI原生应用引擎支持所有数据集进行数据标注吗?
- AI原生应用引擎中预置了哪些提示语?
- AI原生应用引擎训练好后的模型如何获取?
- 模型调测时,无法选择模型服务商API是什么原因?
- 我接入的模型需要满足什么要求才能在创建Agent时作为思考模型?
- Agent问答的时候报错“很抱歉,我的系统似乎遇到了一些故障问题,暂时无法为您提供服务”
- 自接入的模型在模型调测的时候报错是什么原因?
- 开源模型怎么部署?
- 平台有没有预置模型?
- 思考模型和问答模型的区别
- 工作流中知识库节点、LLM节点都需要配置实例,实例的API Key填什么?
- 工作流中工具节点的实例如何配置?
- 如何获取Agent发布时所需的API Key?
- 如何保证Agent每次问答都调用知识库?
- 工作流的返回是json格式,但是大模型会进行总结,如何以json格式直接输出?
- 如何在工作流中定制逻辑实现特定任务,比如时间格式转换、数组对象的push等
- 资产中心的工具怎么使用?
- Code代码节点的输入输出参数如何与其他节点进行交互和传递?
- Agent问答的时候没有回答
- 发布Agent的时候提示套餐校验失败
- 一站式创建Agent时如何取消选择默认模型,更换为其他模型
- 按照标题切分的时候,分段长度是什么意思?
- 工作流已启用,为什么在创建Agent时仍然无法选用?
- 如何通过调用Agent API将变量传递到工作流?
- 开发中心
- 运维中心部署服务
-
运维中心监控服务
- 如何查看EAP详细日志?
- 删除告警任务失败
- 告警后触发知识编排任务提示alert_type不存在
- 创建CES指标采集报错
- 如何卸载虚拟机上安装的filebeat?
-
异常检测Judge定时任务失败
- KeyError
- TypeError: not supported between instances of 'str' and 'float'
- TypeError("Cannot index by location index with a non-integer key")
- judge长时间处于SUBMIT状态直至失败
- fail to load model json
- judge日志无法查看,提示get request error
- judge日志大小1KB,且不刷新日志内容
- PSQLException: ERROR: invalid input syntax for type numeric
- PSQLException: ERROR: syntax error at or near
- too much null size
- judge_data_size(in):0
- ERROR - fail to load
- canceling statement due to user request
- 保存异常检测告警配置时报错
- 运维中心弹性资源服务
- 运维中心弹性网络服务
- 运维中心主机管理服务
- 运维中心微服务平台
-
运维中心负载均衡
-
SLB同步异常相关问题
- SSL_do_handshake() failed
- test nginx: nginx: [emerg] host not found in upstream "后端服务器名称" in /.../server...conf:17 nginx: .../nginx.conf test failed [FAILED
- no "ssl_certificate" is defined for the "listen ... ssl""
- no such file or directory......./ssl/dummy.pem
- test nginx: nginx: [alert] mmap(MAP_ANON|MAP_SHARED, 524288000) failed (12: Cannot allocate memory) nginx: [alert] munmap(FFFFFFFFFFFFFFFF, 524288000) failed
- duplicate value "error" in /opt/huawei/openresty/nginx/.../xxx.conf:40
- SLB同步检查不一致
- SLB一直同步,心跳异常
-
SLB部署失败相关问题
- FATAL Can't get local ip
- /etc/rc.d/init.d/functions: No such file or directory
- nginx is stopped
- will_upgrade\old_version:1.4.7
- Need to modify /etc/hosts,but no permission.
- system param fs.nr_open should not less than fs.file-max”or“system param net.ipv4.ip_local_port_range should >=30000
- some permission denied files in /opt/huawei/openresty/nginx/conf/
- Permission denied: '/opt/huawei/release/lf_test/SLB/
- install_slb_failed for /opt/huawei/openresty exists not for slb
- not all conf included in vhosts or slb_conf
- watchdog still running
- job 28e7241e42904334b failed
- [Service proxy.apply_sudo._wrapped_f]: fail to operator sudo,message: send request fail, status code: 400, error: None, message: illegal param\",\"status\":-2}
- some html not in /opt/huawei/openresty/nginx/html
- cannot access /opt/huawei/openresty/nginx/conf/ssl/sample/resty-auto-ssl-fallback.pem.Permission denined
- fail to operator sudo, message: send request fail, status code: 400, task: control sudo permission, status: failed
- some certificate not in /opt/huawei/openresty/nginx/conf/ssl
- crontab -l \n+ echo 'Permission denied crontab'
- 资源间绑定服务不一致
-
SLB同步异常相关问题
- 运维中心数据库治理
- 运维中心访问凭据管理服务
- 运营中心
- 管理控制台用户指南(即将下线)
- 业务控制台用户指南(即将下线)
-
运行时引擎用户指南(即将下线)
- AppStage运行时引擎简介
- AppStage运行时引擎使用前准备
- 进入AppStage运行时引擎
- 通过微服务平台管理微服务及相关资源
- 配置运行时引擎负载均衡
- 管理Cloud Map中的服务资源
- 配置运行时引擎数据库治理
- 配置访问凭据管理服务
- 文档下载
- 通用参考
链接复制成功!
接入模型服务
支持通过API接入模型服务,模型服务接入后,可以进行模型调测,并支持在创建Agent时使用或通过模型调用接口调用。
前提条件
- 需要具备AI原生应用引擎管理员或开发者权限,权限申请操作请参见AppStage组织成员申请权限。
- 模型API接入之前,请确保符合相对应的接口规范,具体规范要求请参见模型API接入接口规范。
创建接入模型服务
- 在AI原生应用引擎的左侧导航栏选择“模型中心 > 我的模型服务”,单击“接入模型服务”。
- 在“创建接入模型服务”页面,参照表1配置模型信息。
表1 模型信息参数说明 参数名称
参数说明
模型名称
填写的模型名称必须为该模型的模型ID/模型编码(登录第三方模型厂商官网查看),例如:Baichuan4、deepseek-chat、glm-4-air,否则会导致模型不可用。
支持中英文、数字、中划线(-)、下划线(_)、点(.),长度2-36个字符,仅支持以中英文开头。
通过API调用模型服务时,该模型名称将用于OpenAPI调用请求体的model字段,详细介绍请参见模型调用。
模型类型
可选模型类型包括:文本对话、文本向量化、文本排序。
模型参数量
模型参数的数量。计量单位B,表示Billion,即十亿。
上下文长度
模型类型选择“文本对话”时,需配置此参数。
对话文本输入和输出的总长度。
模型描述(可选)
自定义模型相关描述信息。
服务名称
自定义服务名称。支持中英文、数字、中划线(-)、下划线(_)、点(.),长度2-36个字符,仅支持以中英文开头。
模型服务描述(可选)
自定义模型服务相关描述信息。
如果要在创建Agent时选择该模型作为思考模型,需要在模型服务描述中填写“SupportFunctionCall,AdaptFunctionCall”进行适配。
标签(可选)
用来描述或标记模型的关键词或短语,帮助用户快速地找到相关的模型信息或资源。
- 配置模型服务API相关参数,参数说明如表2所示,配置完单击“保存”。
表2 模型服务API配置参数说明 参数名称
参数说明
URL(POST)
模型服务的URL,支持HTTPS、HTTP协议,例如:appstage.huaweicloud.com/v1/xxx。
鉴权方式
- 无鉴权
- Api-key:Api-key认证方式,通过请求header的Authentication字段携带Bearer <Api-key> 进行认证,需要提供Api-key。
- AK/SK:适用于盘古大模型的AK/SK认证方式,通过AK( Access Key ID) /SK(Secret Access Key)加密调用请求,需要提供AK和SK。
- App-code:APP认证方式,通过请求header的X-Apig-Appcode字段携带App-code进行认证,需要提供App-code。
API key
鉴权方式为“Api-key”时,配置此参数。
API密钥所需的字段,以及该验证所必须的字段值。
- 请通过API提供者或模型供应商获取API Key。
- 输入的关键信息将进行加密保存,仅用于模型服务的调用。如果API Key发生变化,更新此处信息后,设置将于2分钟后生效。
AK/SK
鉴权方式为“AK/SK”时,配置此参数。
AK:访问密钥ID。
SK:密钥。
- 请通过API提供者或模型供应商获取AK/SK。
- 输入的关键信息将进行加密保存,仅用于模型服务的调用。
App code
鉴权方式为“App-code”时,配置此参数。
- 请通过API提供者或模型供应商获取App code。
- 输入的关键信息将进行加密保存,仅用于模型服务的调用。如果APP code发生变化,更新此处信息后,设置将于2分钟后生效。
API接口协议
模型类型为“文本对话”或“文本向量化”时,选择“标准OpenAI协议”。
模型类型为“文本排序”时,选择“AI引擎标准协议”。
流控配置
超出流控值,则触发限流,用户的请求会因为流控而失败。
- 无限制
- 10次/秒
- 50次/秒
- 100次/秒
- 200次/秒
- 在模型调测区域调测模型。
- 调测文本对话类型模型,请参考表3配置参数。
表3 文本对话类型模型调测参数说明 参数名称
参数说明
输出方式
可选非流式、流式。二者区别如下:
- 非流式:调用大语言模型推理服务时,根据用户问题,获取大语言模型的回答,大语言模型完整生成回答后一次性返回。
- 流式:调用大语言模型推理服务时,根据用户问题,获取大语言模型的回答,逐个字词的快速返回模式,不需等待大语言模型生成完成。
输出最大token数
表示模型输出的最大长度。
温度
较高的数值会使输出更加随机,而较低的数值会使其更加集中和确定。建议该参数和“多样性”只设置1个。
多样性
影响输出文本的多样性,取值越大,生成文本的多样性越强。建议该参数和“温度”只设置1个。
存在惩罚
介于-2.0和2.0之间的数字。正值会尽量避免重复已经使用过的词语,更倾向于生成新词语。
频率惩罚
介于-2.0和2.0之间的数字。正值会尽量避免使用常见的单词和短语,更倾向于生成较少见的单词。
内容安全监测配置
当“输出方式”为“非流式”时,显示此参数。
选择是否打开开关,开启后,可对返回内容中的文本和图片进行安全监测。
- 调测文本向量化类型模型
- 请输入文本,可参照以下示例输入文本。
- 示例1:那是个快乐的人
- 示例2: ["那是个快乐的人", "那是个高兴的人", "那是个忧郁的人"]
- 单击“生成向量化”。
- 请输入文本,可参照以下示例输入文本。
- 调测文本排序类型模型
- 配置表4所示参数。
- 单击“开始排序”。
- 调测文本对话类型模型,请参考表3配置参数。
- 在右侧预览模型效果。
- 单击“发布”,模型服务发布成功。