更新时间:2025-11-12 GMT+08:00
分享

开始使用

该解决方案使用22端口CloudShell方式远程登录云服务器,默认已配置IP地址白名单,若需远程登录云服务器,可直接使用CLoudShell远程登录。

该解决方案部署成功后,环境初始化及应用安装预计10~15分钟不等,受网络、带宽影响,部署时间会有波动,部署完成方可正常使用。

安全组规则修改(可选)

安全组实际是网络流量访问策略,包括网络流量入方向规则和出方向规则,通过这些规则为安全组内具有相同保护需求并且相互信任的云服务器、云容器、云数据库等实例提供安全保护。

如果您的实例关联的安全组策略无法满足使用需求,比如需要添加、修改、删除某个TCP端口,请参考以下内容进行修改。

  • 添加安全组规则:根据业务使用需求需要开放某个TCP端口,请参考添加安全组规则添加入方向规则,打开指定的TCP端口。
  • 修改安全组规则:安全组规则设置不当会造成严重的安全隐患。您可以参考修改安全组规则,来修改安全组中不合理的规则,保证云服务器等实例的网络安全。
  • 删除安全组规则:当安全组规则入方向、出方向源地址/目的地址有变化时,或者不需要开放某个端口时,您可以参考删除安全组规则进行安全组规则删除。

BISHENG的基础使用

  1. 浏览器输入快速部署步骤10的访问地址,访问您已部署的BISHE开发平台。首次登录需注册账号,点击“没有账号?注册“,依次填写邮箱、密码、验证码。

    图1 BISHENG开发平台
    图2 注册登录账号

  2. 依次输入上一步骤中的“邮箱”、“密码”登录BISHENG平台。

    图3 登录BISHENG平台
    图4 BISHENG平台

与MaaS服务对接

  1. 登录ModelArts Studio 平台,本文以部署华东二的DeepSeek-R1-Distill-Qwen-32B-4K为例。

    图5 ModelArts Studio

  2. 在ModelArts Studio左侧导航栏中,选择“在线推理”进入“预置服务”服务列表,选择“免费服务”。

    图6 免费服务

  3. 领取免费调用额度。在免费服务列表,选择所需的服务,单击右侧操作列的“领取额度”。当领取置灰时,表示该服务的免费额度已领取。

    图7 领取额度

  4. 成功领取后,在免费服务列表,选择所需的服务,单击“调用说明”,在调用弹窗中接口类型选择“OpenAI SDK”获取API地址和模型名称。

    图8 调用说明

  5. 免费服务中单个模型提供200万token推理额度,额度消耗完后可开通使用商用级别的推理API服务(仅限贵阳一),或前往我的服务部署为我的服务后付费使用。

    图9 商用服务
    图10 调用说明

  6. 在调用MaaS部署的模型服务时,需要填写API Key用于接口的鉴权认证。在左侧导航栏,单击“API Key管理”(最多可创建30个密钥。每个密钥仅在创建时显示一次,请确保妥善保存。如果密钥丢失,无法找回,需要重新创建API Key以获取新的访问密钥)。

    图11 API Key管理

  7. 在“API Key管理”页面,单击右上角“创建API Key”,填写标签(自定义API Key的标签,标签具有唯一性,不可重复。仅支持大小写英文字母、数字、下划线、中划线,长度范围为1~100个字符)和描述(自定义API Key的描述,长度范围为1~100个字符)信息后,单击“确定”。标签和描述信息在创建完成后,不支持修改。

    图12 创建API Key

  8. 对接BISHENG平台。打开您的BISHENG平台界面,单击左下角用户名称,单击“管理后台”。

  9. 点击左侧列表模型,点击添加模型

    图13 添加模型

  10. 配置模型信息:”模型接口”选择”OpenAI”,”模型服务提供方名称”自定义填写,“OpenAI API Base”填写上述本节步骤4步骤5“调用说明”中的“API地址”,固定填入”https://api.modelarts-maas.com/v1”;"API Key"填写步骤7中创建的API Key;“模型名称”填写上述本节步骤4步骤5“调用说明”中的“模型名称”,”模型类型”下拉选择LLM,删除模型2,填写完成后单击“保存”。

    图14 设置

  11. 点击新建模型,查看模型状态。

    图15 查看模型状态

创建知识库

该章节为成功部署快速部署Embedding及Reranker模型解决方案后,将Embedding模型对接至BISHENG平台时参考使用。

  1. 单击左下角用户名称,单击”管理后台”。

    图16 设置

  2. 单击左侧”模型”,单击"添加模型"。

    图17 添加模型

  3. 新增embedding模型:Embedding模型部署可参考快速部署Embedding及Reranker模型部署指南快速部署。配置模型信息:”模型接口”选择”Ollama”,”模型服务提供方名称”自定义填写,“Base URL”填写Embedding模型所在服务器的公网IP,端口是11434;“模型名称”填写"bge-m3",”模型类型”下拉选择Embedding,填写完成后单击“保存”。

    图18 添加模型

  4. 单击新增的模型状态“可用“,模型设置成功。

    图19 模型配置完成

  5. 单击左侧列表”知识”,点击“创建“,填写知识库名称,知识库embedding模型选择步骤3创建的模型,单击创建并导入。

    图20 创建
    图21 知识库模型选择

  6. 上传文本文件,点击下一步。

    图22 上传文本文件

  7. 按需求配置分段策略,若没有特殊需求默认即可。单击“下一步”。

    图23 分段策略

  8. 预览原文对比,单击“下一步”。

    图24 原文对比

  9. 待解析完成,页面显示文档数据解析已完成,则继续点击"返回知识库",可以看见创建的知识库和导入的知识库文档。

    图25 解析完成

相关文档