盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    华为云盘古大模型 更多内容
  • 如何调整训练参数,使盘古大模型效果最优

    如何调整训练参数,使盘古模型效果最优 模型微调参数的选择没有标准答案,不同的场景,有不同的调整策略。一般微调参数的影响会受到以下几个因素的影响: 目标任务的难度:如果目标任务的难度较低,模型能较容易的学习知识,那么少量的训练轮数就能达到较好的效果。反之,若任务较复杂,那么可能就需要更多的训练轮数。

    来自:帮助中心

    查看更多 →

  • 成长地图

    如何对盘古模型的安全性展开评估和防护? 训练智能客服系统模型需考虑哪些方面? 如何调整训练参数,使盘古模型效果最优? 如何判断盘古模型训练状态是否正常? 为什么微调后的盘古模型总是重复相同的回答? 盘古模型是否可以自定义人设? 更多 模型概念类 如何对盘古模型的安全性展开评估和防护?

    来自:帮助中心

    查看更多 →

  • 使用盘古预置NLP大模型进行文本对话

    使用盘古预置NLP模型进行文本对话 场景描述 此示例演示了如何使用盘古能力调测功能与盘古NLP模型进行对话问答。您将学习如何通过调试模型超参数,实现智能化对话问答功能。 准备工作 请确保您有预置的NLP模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP模型 >

    来自:帮助中心

    查看更多 →

  • NLP大模型

    NLP模型 文本对话 父主题: API

    来自:帮助中心

    查看更多 →

  • 概述

    概述 盘古模型整合华为云强大的计算和数据资源,将先进的AI算法集成在预训练模型中,打造出具有深度语义理解与生成能力的人工智能语言模型。可进行对话互动、回答问题、协助创作。 盘古模型(NLP模型、科学计算模型)在ModelArts Studio模型开发平台部署后,可以通过API调用推理接口。

    来自:帮助中心

    查看更多 →

  • 方案概述

    、企业微信、飞书等。借助华为云盘古大模型和数字内容Metastudio,高效展示企业业务价值,并支持营销内容的创作与分发。 此外,该方案还集成了华为Metastudio的数字人服务、声音复刻和AI智能抠图,快速生成销售数字分身。智能问答功能基于盘古模型+向量数据库,提升企业知识

    来自:帮助中心

    查看更多 →

  • 为什么多轮问答场景的盘古大模型微调效果不好

    还是不行"} 数据质量:若数据格式没有问题,仍然发现模型效果不好,您可以根据具体问题针对性的提升您的数据质量。比如,随着对话轮数的增加,模型出现了遗忘,可以检查构造的训练数据中轮数是否普遍较少,建议根据实际情况增加数据中的对话轮数。 父主题: 模型微调训练类问题

    来自:帮助中心

    查看更多 →

  • 如何对盘古大模型的安全性展开评估和防护

    如何对盘古模型的安全性展开评估和防护 盘古模型的安全性主要从以下方面考虑: 数据安全和隐私保护:模型涉及大量训练数据,这些数据是重要资产。为确保数据安全,需在数据和模型训练的全生命周期内,包括数据提取、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加密、

    来自:帮助中心

    查看更多 →

  • 数据量足够,为什么盘古大模型微调效果仍然不好

    数据量足够,为什么盘古模型微调效果仍然不好 这种情况可能是由于以下原因导致的,建议您排查: 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大、样本中存在异常数据、样本的多样性较差,都将影响模型训练的效果,建议提升您的数据质量。 父主题: 模型微调训练类问题

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型总是重复相同的回答

    为什么微调后的盘古模型总是重复相同的回答 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成了复读机式的结果,即回答中反复出现某一句话或某几句话。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“话题重复度控制”或“温度”或

    来自:帮助中心

    查看更多 →

  • 训练NLP大模型

    训练NLP模型 NLP模型训练流程与选择建议 创建NLP模型训练任务 查看NLP模型训练状态与指标 发布训练后的NLP模型 管理NLP模型训练任务 NLP模型训练常见报错与解决方案 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 什么是图像搜索

    本服务API进行数据的入库和搜索,帮助用户构建托管式的场景化搜索服务,打造智能化业务系统,提升业务效率。 产品优势 搜索高精度 依托华为云盘古大模型,海量数据学习迭代,具备行业领先的搜索精度。 服务高性能 分布式搜索服务架构,自研向量检索引擎,企业级稳定性,百亿数据毫秒级响应。 定制化服务

    来自:帮助中心

    查看更多 →

  • 压缩NLP大模型

    压缩NLP模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。当前仅支持对NLP模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio模型开发平台,进入所需操作空间。

    来自:帮助中心

    查看更多 →

  • 调用NLP大模型

    调用NLP模型 使用“能力调测”调用NLP模型 使用API调用NLP模型 统计模型调用信息 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 部署NLP大模型

    部署NLP模型 创建NLP模型部署任务 查看NLP模型部署任务详情 管理NLP模型部署任务 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 科学计算大模型

    科学计算模型 气象/降水模型 海洋模型 父主题: API

    来自:帮助中心

    查看更多 →

  • ModelArts Studio大模型开发平台使用流程

    训练NLP模型 压缩NLP模型 通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。 压缩NLP模型 部署NLP模型 部署后的模型可进行调用操作。 部署NLP模型 调用NLP模型 支持“能力调测”功能与API两种方式调用模型。 调用NLP模型 盘古NLP大模型应用开发

    来自:帮助中心

    查看更多 →

  • 功能总览

    理性能和跨平台迁移工具,模型开发工具链能够保障模型在不同环境中的高效应用。 支持区域: 西南-贵阳一 开发盘古NLP模型 开发盘古科学计算模型 压缩盘古模型 部署盘古模型 调用盘古模型 迁移盘古模型 应用开发工具 链 应用开发工具链是盘古模型平台的关键模块,支持提示词工程和智能Agent应用创建。

    来自:帮助中心

    查看更多 →

  • 大模型微调训练类问题

    模型微调训练类问题 无监督领域知识数据量无法支持增量预训练,如何进行模型学习 如何调整训练参数,使盘古模型效果最优 如何判断盘古模型训练状态是否正常 如何评估微调后的盘古模型是否正常 如何调整推理参数,使盘古模型效果最优 为什么微调后的盘古模型总是重复相同的回答 为什么微调后的盘古大模型的回答中会出现乱码

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型的回答会异常中断

    为什么微调后的盘古模型的回答会异常中断 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果不完整,出现了异常截断。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“最大Token限制”参数的设置,适当增加该参数的值,可

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型的回答中会出现乱码

    为什么微调后的盘古模型的回答中会出现乱码 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果中出现了其他语言、异常符号、乱码等字符。这种情况可能是由于以下几个原因导致的,建议您依次排查: 数据质量:请检查训练数据中是否存在包含异常字符的数据,可以通过规则进行清洗。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了