文档首页/ 盘古大模型 PanguLargeModels/ 快速入门/ 调用盘古NLP大模型API实现文本对话
更新时间:2024-12-03 GMT+08:00
分享

调用盘古NLP大模型API实现文本对话

场景描述

此示例演示了如何调用盘古NLP大模型API实现文本对话功能。您将学习如何通过API接口发送请求,传递对话输入,并接收模型生成的智能回复。通过这一过程,您可以快速集成NLP对话功能,使应用具备自然流畅的交互能力。

准备工作

调用盘古NLP大模型API实现文本对话前,请确保您已完成NLP大模型的部署操作,详见《用户指南》“开发盘古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。

操作流程

  1. 登录ModelArts Studio大模型开发平台,进入所需空间。
  2. 获取调用路径及部署ID。单击左侧“模型开发 > 模型部署”,选择所需调用的NLP大模型,单击“调用路径”,在“调用路径”弹窗获取调用路径及部署ID。
    图1 获取调用路径和部署ID
  3. 获取项目ID。在页面右上角“我的凭证”,在“API凭证”页面可获取项目ID。
    图2 获取项目ID
  4. 获取Token。参考《API参考》文档“如何调用REST API认证鉴权”章节获取Token。
  5. 在Postman中新建POST请求,并填入API请求地址。
  6. 参考图3填写2个请求Header参数。
    • 参数名为Content-Type,参数值为application/json。
    • 参数名为X-Auth-Token,参数值为获取的Token值。
      图3 填写NLP大模型API
    在Postman中选择“Body > raw”选项,参考以下代码填写请求Body。
    {
        "messages": [
          {
              "content": "介绍下长江,以及长江中典型的鱼类"
           }
          ],
        "temperature": 0.9,
        "max_tokens": 600
    }
  7. 单击Postman界面“Send”按钮,发送请求。当接口返回状态为200时,表示NLP大模型API调用成功。

相关文档