调用盘古NLP大模型API实现文本对话
场景描述
此示例演示了如何调用盘古NLP大模型API实现文本对话功能。您将学习如何通过API接口发送请求,传递对话输入,并接收模型生成的智能回复。通过这一过程,您可以快速集成NLP对话功能,使应用具备自然流畅的交互能力。
准备工作
调用盘古NLP大模型API实现文本对话前,请确保您已完成NLP大模型的部署操作,详见《用户指南》“开发盘古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。
操作流程
- 登录ModelArts Studio大模型开发平台,进入所需空间。
- 获取调用路径及部署ID。单击左侧“模型开发 > 模型部署”,选择所需调用的NLP大模型,单击“调用路径”,在“调用路径”弹窗获取调用路径及部署ID。
图1 获取调用路径和部署ID
- 获取项目ID。在页面右上角“我的凭证”,在“API凭证”页面可获取项目ID。
图2 获取项目ID
- 获取Token。参考《API参考》文档“如何调用REST API认证鉴权”章节获取Token。
- 在Postman中新建POST请求,并填入API请求地址。
- 参考图3填写2个请求Header参数。
- 参数名为Content-Type,参数值为application/json。
- 参数名为X-Auth-Token,参数值为获取的Token值。
在Postman中选择“Body > raw”选项,参考以下代码填写请求Body。{ "messages": [ { "content": "介绍下长江,以及长江中典型的鱼类" } ], "temperature": 0.9, "max_tokens": 600 }
- 单击Postman界面“Send”按钮,发送请求。当接口返回状态为200时,表示NLP大模型API调用成功。