盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    华为盘古大模型 更多内容
  • 概述

    概述 盘古模型整合华为云强大的计算和数据资源,将先进的AI算法集成在预训练模型中,打造出具有深度语义理解与生成能力的人工智能语言模型。可进行对话互动、回答问题、协助创作。 盘古模型(NLP模型、科学计算模型)在ModelArts Studio模型开发平台部署后,可以通过API调用推理接口。

    来自:帮助中心

    查看更多 →

  • 基本概念

    基本概念 盘古药物分子模型 盘古药物分子模型是基于华为与中科院上海药物所共同研发、专门面向药物研发领域推出的预训练模型,旨在帮助医药公司开启AI辅助药物研发的新模式。盘古药物分子模型学习了17亿个药物分子的化学结构,模型参数上亿,是目前最大的小分子药物模型华为盘古药物分子

    来自:帮助中心

    查看更多 →

  • 关键概念

    关键概念 盘古药物分子模型 盘古药物分子模型是基于华为与中科院上海药物所共同研发、专门面向药物研发领域推出的预训练模型,旨在帮助医药公司开启AI辅助药物研发的新模式。盘古药物分子模型学习了17亿个药物分子的化学结构,模型参数上亿,是目前最大的小分子药物模型华为盘古药物分子

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型总是重复相同的回答

    为什么微调后的盘古模型总是重复相同的回答 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成了复读机式的结果,即回答中反复出现某一句话或某几句话。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“话题重复度控制”或“温度”或

    来自:帮助中心

    查看更多 →

  • 为什么多轮问答场景的盘古大模型微调效果不好

    还是不行"} 数据质量:若数据格式没有问题,仍然发现模型效果不好,您可以根据具体问题针对性的提升您的数据质量。比如,随着对话轮数的增加,模型出现了遗忘,可以检查构造的训练数据中轮数是否普遍较少,建议根据实际情况增加数据中的对话轮数。 父主题: 模型微调训练类问题

    来自:帮助中心

    查看更多 →

  • 如何对盘古大模型的安全性展开评估和防护

    如何对盘古模型的安全性展开评估和防护 盘古模型的安全性主要从以下方面考虑: 数据安全和隐私保护:模型涉及大量训练数据,这些数据是重要资产。为确保数据安全,需在数据和模型训练的全生命周期内,包括数据提取、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加密、

    来自:帮助中心

    查看更多 →

  • 数据量足够,为什么盘古大模型微调效果仍然不好

    数据量足够,为什么盘古模型微调效果仍然不好 这种情况可能是由于以下原因导致的,建议您排查: 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大、样本中存在异常数据、样本的多样性较差,都将影响模型训练的效果,建议提升您的数据质量。 父主题: 模型微调训练类问题

    来自:帮助中心

    查看更多 →

  • 文本类数据集格式要求

    "target":"你好,请问有什么可以帮助你"},{"context":"请介绍一下盘古模型","target":"盘古模型,是华为推出盘古系列AI模型,包括NLP模型、多模态模型、CV模型、科学计算模型、预测模型。"}] 数据集最大100万个文件,单文件最大10GB,整个数据集最大10TB。

    来自:帮助中心

    查看更多 →

  • 训练NLP大模型

    训练NLP模型 NLP模型训练流程与选择建议 创建NLP模型训练任务 查看NLP模型训练状态与指标 发布训练后的NLP模型 管理NLP模型训练任务 NLP模型训练常见报错与解决方案 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 压缩NLP大模型

    压缩NLP模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。当前仅支持对NLP模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio模型开发平台,进入所需操作空间。

    来自:帮助中心

    查看更多 →

  • ModelArts Studio大模型开发平台使用流程

    训练NLP模型 压缩NLP模型 通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。 压缩NLP模型 部署NLP模型 部署后的模型可进行调用操作。 部署NLP模型 调用NLP模型 支持“能力调测”功能与API两种方式调用模型。 调用NLP模型 盘古NLP大模型应用开发

    来自:帮助中心

    查看更多 →

  • 科学计算大模型

    科学计算模型 气象/降水模型 海洋模型 父主题: API

    来自:帮助中心

    查看更多 →

  • 调用NLP大模型

    调用NLP模型 使用“能力调测”调用NLP模型 使用API调用NLP模型 统计模型调用信息 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 部署NLP大模型

    部署NLP模型 创建NLP模型部署任务 查看NLP模型部署任务详情 管理NLP模型部署任务 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 功能总览

    理性能和跨平台迁移工具,模型开发工具链能够保障模型在不同环境中的高效应用。 支持区域: 西南-贵阳一 开发盘古NLP模型 开发盘古科学计算模型 压缩盘古模型 部署盘古模型 调用盘古模型 迁移盘古模型 应用开发工具 链 应用开发工具链是盘古模型平台的关键模块,支持提示词工程和智能Agent应用创建。

    来自:帮助中心

    查看更多 →

  • 大模型微调训练类问题

    模型微调训练类问题 无监督领域知识数据量无法支持增量预训练,如何进行模型学习 如何调整训练参数,使盘古模型效果最优 如何判断盘古模型训练状态是否正常 如何评估微调后的盘古模型是否正常 如何调整推理参数,使盘古模型效果最优 为什么微调后的盘古模型总是重复相同的回答 为什么微调后的盘古大模型的回答中会出现乱码

    来自:帮助中心

    查看更多 →

  • 盘古推理SDK简介

    盘古推理SDK简介 推理SDK概述 盘古模型推理SDK是对REST API进行的封装,通过该SDK可以处理用户的输入,生成模型的回复,从而实现自然流畅的对话体验。 表1 推理SDK清单 SDK分类 SDK功能 支持语言 使用场景 推理SDK 对话问答(/chat/completions)

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型的回答会异常中断

    为什么微调后的盘古模型的回答会异常中断 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果不完整,出现了异常截断。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“最大Token限制”参数的设置,适当增加该参数的值,可

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型的回答中会出现乱码

    为什么微调后的盘古模型的回答中会出现乱码 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果中出现了其他语言、异常符号、乱码等字符。这种情况可能是由于以下几个原因导致的,建议您依次排查: 数据质量:请检查训练数据中是否存在包含异常字符的数据,可以通过规则进行清洗。

    来自:帮助中心

    查看更多 →

  • 在MaaS应用实践中心查看应用解决方案

    企业搜索 服务、盘古数字人大脑和Dify,为具体的客户应用场景提供一整套解决方案。 KooSearch 企业搜索服务:基于在MaaS开源模型部署的模型API,搭建企业专属方案、LLM驱动的语义搜索、多模态搜索增强。 盘古数字人大脑:基于在MaaS开源模型部署的模型API,升级智能对话解决方案,含智能客服、数字人。

    来自:帮助中心

    查看更多 →

  • 使用数据工程构建NLP大模型数据集

    使用数据工程构建NLP模型数据集 NLP模型支持接入的数据集类型 盘古NLP模型仅支持接入文本类数据集,该数据集格式要求请参见文本类数据集格式要求。 构建NLP模型所需数据量 使用数据工程构建盘古NLP模型数据集进行模型训练时,所需数据量见表1。 表1 构建NLP模型所需数据量 模型规格

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了