更新时间:2025-01-20 GMT+08:00
配置LLM Engine侧信息
基于大模型的会话小结功能,需要通过调用LLM Engine的workflow来实现,本章节介绍如何创建workflow和Prompt模板。
前提条件
请联系系统管理员登录客户服务云,进入LLM Engine特性、自动会话小结特性。
界面,开启操作步骤
- 联系华为工程师从support下载发布包AICC_*.*.*_ODFS.zip。
- 解压AICC_*.*.*_ODFS.zip压缩包。
*.*.*表示AICC的版本号。
- 解压后进入/flowinfo/LLM_Agent_Assistant.zip/路径下获取workflow.zip。
- 解压workflow.zip压缩包。
- 解压后获取textSummary.tar.gz压缩包。
- 租间管理员登录客户服务云,进入 页面,点击导入按钮,导入textSummary.tar.gz会话小结工作流压缩包。
- 租间管理员进入 页面,选择自定义模板。
- 单击Automatic Conversation Summary场景,单击自动摘要模板和Automatic Conversation Summary Prompt模板,进入模板详情页面。单击“取消发布”按钮,将两个模板状态调整成未发布。
- 单击自动摘要Prompt模板和Automatic Conversation Summary Prompt模板,进入编辑页面,选择状态为可用的大模型。如何配置模型可参考章节配置模型。开启模型参数,将“temperature”设置为“0.2”,“max_tokens”设置为“300”。
- 单击“保存并发布”按钮,发布该promt模板。
父主题: 基于大模型会话小结