盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    AI大模型 更多内容
  • 如何判断盘古大模型训练状态是否正常

    如何判断盘古模型训练状态是否正常 判断训练状态是否正常,通常可以通过观察训练过程中Loss(损失函数值)的变化趋势。损失函数是一种衡量模型预测结果和真实结果之间的差距的指标,正常情况下越小越好。 您可以从平台的训练日志中获取到每一步的Loss,并绘制成Loss曲线,来观察其变化

    来自:帮助中心

    查看更多 →

  • 通过Function Calling扩展大语言模型交互能力

    通过Function Calling扩展语言模型交互能力 Function Calling介绍 在Dify中配置支持Function Calling的模型使用 通过Function Calling扩展语言模型对外部环境的理解

    来自:帮助中心

    查看更多 →

  • 使用AI Gallery微调大师训练模型

    即自定义模型),则模型文件必须满足自定义模型规范(训练)才支持模型自定义训练。 当使用 自定义镜像 进行模型微调时,要确认镜像是否满足自定义镜像规范,否则无法成功完成自定义训练。 进入模型微调 登录AI Gallery。 单击“模型”进入模型列表。 选择需要进行微调训练的模型,单击模型名称进入模型详情页。

    来自:帮助中心

    查看更多 →

  • 使用AI原生应用引擎完成模型调优

    选择要调测的模型服务,在下拉列表选择步骤三:部署模型中部署的模型服务。 输出方式 可选非流式、流式。二者区别如下: 非流式:调用语言模型推理服务时,根据用户问题,获取语言模型的回答,语言模型完整生成回答后一次性返回。 流式:调用语言模型推理服务时,根据用户问题,获取语言模型的回答,逐个字词的快速返回模式,不需等待大语言模型生成完成。

    来自:帮助中心

    查看更多 →

  • 文本类数据集格式要求

    "target":"你好,请问有什么可以帮助你"},{"context":"请介绍一下盘古模型","target":"盘古模型,是华为推出盘古系列AI大模型,包括NLP模型、多模态模型、CV模型、科学计算模型、预测模型。"}] 数据集最大100万个文件,单文件最大10GB,整个数据集最大10TB。

    来自:帮助中心

    查看更多 →

  • 如何调整推理参数,使盘古大模型效果最优

    如何调整推理参数,使盘古模型效果最优 推理参数(解码参数)是一组用于控制模型生成预测结果的参数,其可以用于控制模型生成结果的样式,如长度、随机性、创造性、多样性、准确性和丰富度等等。 当前,平台支持的推理参数包括:温度、核采样以及话题重复度控制,如下提供了这些推理参数的建议值和说明,供您参考:

    来自:帮助中心

    查看更多 →

  • 使用数据工程构建NLP大模型数据集

    使用数据工程构建NLP模型数据集 NLP模型支持接入的数据集类型 盘古NLP模型仅支持接入文本类数据集,该数据集格式要求请参见文本类数据集格式要求。 构建NLP模型所需数据量 使用数据工程构建盘古NLP模型数据集进行模型训练时,所需数据量见表1。 表1 构建NLP模型所需数据量 模型规格

    来自:帮助中心

    查看更多 →

  • 管理科学计算大模型部署任务

    管理科学计算模型部署任务 模型更新、修改部署 成功创建部署任务后,如需修改已部署的模型或配置信息,可以在详情页面单击右上角的“模型更新”或“修改部署”进行调整。更新模型时可以替换模型和修改作业配置参数,但在修改部署时模型不可替换或修改作业配置参数。 在“模型更新”或“修改部署”

    来自:帮助中心

    查看更多 →

  • 方案概述

    该解决方案可以帮助您在华为云 弹性云服务器 E CS 上基于Geek-AI构建自己的创作系统。Geek-AI是基于 AI 语言模型 API 实现的 AI 助手全套开源解决方案,自带运营管理后台,开箱即用。集成了 OpenAI、 Azure ChatGLM、讯飞星火、文心一言等多个平台的语言模型。集成了 MidJourney

    来自:帮助中心

    查看更多 →

  • 创建科大讯飞应用(星火交互认知大模型)

    创建科大讯飞应用(星火交互认知模型) 在科大讯飞创建星火交互认知模型的应用。详细操作如下所示: 星火交互认知模型应用,不支持直接切换为AIUI通用语义模型,不适用。建议参考创建科大讯飞应用(AIUI通用语义模型)单独为其创建应用。 创建应用 (可选)创建问答库 配置应用 查看应用信息

    来自:帮助中心

    查看更多 →

  • 高速网络栈

    规划能力,降低模型训练过程中传输时间,提升模型训练性能。 智能调度通过RESTful API接口可提供的能力包括: 拓扑搜索:根据用户提供的模型超参、并行度及可用资源列表,提供给用户基于拓扑感知的任务资源最优选择建议。 拓扑感知调度:用户资源选择后,根据模型超参、并行度、集

    来自:帮助中心

    查看更多 →

  • 使用AI Gallery在线推理服务部署模型

    使用AI Gallery在线推理服务部署模型 AI Gallery支持将训练的模型或创建的模型资产部署为在线推理服务,可供用户直接调用API完成推理业务。 约束限制 如果模型的“任务类型”是“文本问答”或“文本生成”,则支持在线推理。如果模型的“任务类型”是除“文本问答”和“文本

    来自:帮助中心

    查看更多 →

  • 训练智能客服系统大模型需考虑哪些方面

    例库和FAQ库等,可以使用“先搜后推”的解决方案。客户的文档库可以实时更新,模型的应答可以无缝实时更新。(搜索+模型解决方案) 父主题: 模型概念类问题

    来自:帮助中心

    查看更多 →

  • 如何调整训练参数,使盘古大模型效果最优

    如何调整训练参数,使盘古模型效果最优 模型微调参数的选择没有标准答案,不同的场景,有不同的调整策略。一般微调参数的影响会受到以下几个因素的影响: 目标任务的难度:如果目标任务的难度较低,模型能较容易的学习知识,那么少量的训练轮数就能达到较好的效果。反之,若任务较复杂,那么可能就需要更多的训练轮数。

    来自:帮助中心

    查看更多 →

  • NLP大模型训练常见报错与解决方案

    NLP模型训练常见报错与解决方案 NLP模型训练常见报错及解决方案请详见表1。 表1 NLP模型训练常见报错与解决方案 常见报错 问题现象 原因分析 解决方案 创建训练任务时,数据集列表为空 创建训练任务时,数据集选择框中显示为空,无可用的训练数据集。 数据集未发布。 请提

    来自:帮助中心

    查看更多 →

  • 管理科学计算大模型训练任务

    管理科学计算模型训练任务 在训练任务列表中,任务创建者可以对创建好的任务进行编辑、启动、克隆(复制训练任务)、重试(重新训练任务)和删除操作。 登录ModelArts Studio模型开发平台,进入所需空间。 在左侧导航栏中选择“模型开发 > 模型训练”,进入模型训练页面,可进行如下操作:

    来自:帮助中心

    查看更多 →

  • 使用数据工程构建科学计算大模型数据集

    使用数据工程构建科学计算模型数据集 科学计算模型支持接入的数据集类型 盘古科学计算模型仅支持接入气象类数据集,该数据集格式要求请参见气象类数据集格式要求。 构建科学计算模型训练数据要求 构建科学计算模型进行训练的数据要求见表1。 表1 科学计算模型训练数据要求 模型类别 特征要求

    来自:帮助中心

    查看更多 →

  • 使用盘古预置NLP大模型进行文本对话

    使用盘古预置NLP模型进行文本对话 场景描述 此示例演示了如何使用盘古能力调测功能与盘古NLP模型进行对话问答。您将学习如何通过调试模型超参数,实现智能化对话问答功能。 准备工作 请确保您有预置的NLP模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP模型 > 部署NLP大模型

    来自:帮助中心

    查看更多 →

  • 文件系统类型

    2TB~1PB 1.2TB~1PB 优势 容量、低成本 容量、低成本 低时延、高性价比 低时延、高性价比 高IOPS、性能高密 高IOPS、性能高密 典型应用场景 日志存储、文件共享、内容管理、网站 日志存储、文件共享、内容管理、网站 AI训练、自动驾驶、EDA仿真、渲染、企业NAS应用、高性能web应用

    来自:帮助中心

    查看更多 →

  • 创建科大讯飞应用(AIUI通用语义模型)

    创建科大讯飞应用(AIUI通用语义模型) 在科大讯飞创建AIUI通用语义模型的应用。详细操作如下所示: AIUI通用语义模型应用,不支持直接切换为星火交互认知模型,不适用。建议参考创建科大讯飞应用(星火交互认知模型)单独为其创建应用。 创建应用 配置应用 查看应用信息 (可选)开启闲聊功能

    来自:帮助中心

    查看更多 →

  • 什么是云存储优化与提升服务?

    什么是云存储优化与提升服务? 随着客户对云存储需求的持续增长,如具有业务峰值流量较高特点的客户,存储弹性需求也随之提高,导致业务出现性能瓶颈。再如,AI大模型训练面临数据量和模型参数的不断增加,迫切需要加快训练速度。泛互联网客户对存储的性能、安全性和易用性提出了更高要求,客户难以正确配置存储资源来更好的支撑业务。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了