盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    鸿蒙4.0 盘古大模型 更多内容
  • 如何评估微调后的盘古大模型是否正常

    如何评估微调后的盘古模型是否正常 评估模型效果的方法有很多,通常可以从以下几个方面来评估模型训练效果: Loss曲线:通过Loss曲线的变化趋势来评估训练效果,确认训练过程是否出现了过拟合或欠拟合等异常情况。 模型评估:使用平台的“模型评估”功能,“模型评估”将对您之前上传的测

    来自:帮助中心

    查看更多 →

  • 使用盘古NLP大模型创建Python编码助手应用

    准备工作 请确保您有预置的NLP模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP模型 > 部署NLP模型 > 创建NLP模型部署任务”。 操作流程 使用盘古NLP模型创建Python编码应用的流程见表1。 表1 用盘古NLP模型创建Python编码应用 操作步骤

    来自:帮助中心

    查看更多 →

  • 使用盘古预置NLP大模型进行文本对话

    请确保您有预置的NLP模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP模型 > 部署NLP模型 > 创建NLP模型部署任务”。 使用“能力调测”功能 调用API接口 “能力调测”功能支持用户直接调用已部署的预置服务,使用步骤如下: 登录ModelArts Studio大模型开发平台,进入所需空间。

    来自:帮助中心

    查看更多 →

  • 如何调整训练参数,使盘古大模型效果最优

    如何调整训练参数,使盘古模型效果最优 模型微调参数的选择没有标准答案,不同的场景,有不同的调整策略。一般微调参数的影响会受到以下几个因素的影响: 目标任务的难度:如果目标任务的难度较低,模型能较容易的学习知识,那么少量的训练轮数就能达到较好的效果。反之,若任务较复杂,那么可能就需要更多的训练轮数。

    来自:帮助中心

    查看更多 →

  • 开发盘古专业大模型

    开发盘古专业大模型 部署专业大模型

    来自:帮助中心

    查看更多 →

  • NLP大模型

    NLP模型 文本对话 父主题: API

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型总是重复相同的回答

    为什么微调后的盘古模型总是重复相同的回答 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成了复读机式的结果,即回答中反复出现某一句话或某几句话。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“话题重复度控制”或“温度”或

    来自:帮助中心

    查看更多 →

  • 如何对盘古大模型的安全性展开评估和防护

    如何对盘古模型的安全性展开评估和防护 盘古模型的安全性主要从以下方面考虑: 数据安全和隐私保护:模型涉及大量训练数据,这些数据是重要资产。为确保数据安全,需在数据和模型训练的全生命周期内,包括数据提取、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加密、

    来自:帮助中心

    查看更多 →

  • 数据量足够,为什么盘古大模型微调效果仍然不好

    数据量足够,为什么盘古模型微调效果仍然不好 这种情况可能是由于以下原因导致的,建议您排查: 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大、样本中存在异常数据、样本的多样性较差,都将影响模型训练的效果,建议提升您的数据质量。 父主题: 模型微调训练类

    来自:帮助中心

    查看更多 →

  • 为什么多轮问答场景的盘古大模型微调效果不好

    还是不行"} 数据质量:若数据格式没有问题,仍然发现模型效果不好,您可以根据具体问题针对性的提升您的数据质量。比如,随着对话轮数的增加,模型出现了遗忘,可以检查构造的训练数据中轮数是否普遍较少,建议根据实际情况增加数据中的对话轮数。 父主题: 模型微调训练类

    来自:帮助中心

    查看更多 →

  • 盘古专业大模型能力与规格

    理单元部署。 在选择和使用盘古模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调、模型压缩、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是盘古专业大模型支持的具体操作: 模型 预训练 微调 模型压缩 在线推理 能力调测

    来自:帮助中心

    查看更多 →

  • 压缩NLP大模型

    压缩NLP模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。 平台当前仅可对NLP模型进行压缩,支持压缩的模型清单请详见《产品介绍》> “模型能力与规格 > 盘古NLP模型能力与规格”。 登录ModelArts Studio模型开发平台,在“我的空间”模块,单击进入所需空间。

    来自:帮助中心

    查看更多 →

  • 训练NLP大模型

    训练NLP模型 NLP模型训练流程与选择建议 创建NLP模型训练任务 查看NLP模型训练状态与指标 发布训练后的NLP模型 管理NLP模型训练任务 NLP模型训练常见报错与解决方案 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 评测NLP大模型

    评测NLP模型 创建NLP模型评测数据集 创建NLP模型评测任务 查看NLP模型评测报告 管理NLP模型评测任务 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 大模型使用类

    模型使用类 盘古模型是否可以自定义人设 如何将本地的数据上传至平台 导入数据过程中,为什么无法选中OBS的单个文件进行上传 如何查看预置模型的历史版本 训练/推理单元与算力的对应关系是什么

    来自:帮助中心

    查看更多 →

  • 部署NLP大模型

    部署NLP模型 创建NLP模型部署任务 查看NLP模型部署任务详情 管理NLP模型部署任务 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 调用NLP大模型

    调用NLP模型 使用“能力调测”调用NLP模型 使用API调用NLP模型 统计NLP模型调用信息 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 大模型概念类

    模型概念类 如何对盘古模型的安全性展开评估和防护 训练智能客服系统模型需考虑哪些方面

    来自:帮助中心

    查看更多 →

  • ModelArts Studio大模型开发平台使用流程

    操作指导 准备工作 申请试用盘古模型服务 盘古模型为用户提供了服务试用,用户可根据所需提交试用申请,申请通过后才可以试用盘古模型功能。 申请试用盘古模型服务 订购盘古模型服务 正式使用盘古模型服务前,需要完成服务的订购操作。 订购盘古模型服务 配置服务访问授权 为了

    来自:帮助中心

    查看更多 →

  • 成长地图

    云容器引擎-成长地图 | 华为云 盘古模型 盘古模型服务(PanguLargeModels)致力于深耕行业,打造多领域行业大模型和能力集。盘古模型能力通过ModelArts Studio模型开发平台承载,它提供了包括盘古模型在内的多种模型服务,提供覆盖全生命周期的模型工具链。 产品介绍

    来自:帮助中心

    查看更多 →

  • 大模型推理场景

    模型推理场景 模型推理场景介绍 用公共推理服务进行推理 创建我的推理服务进行推理 通过AOM查看全量指标

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了