AI&大数据

高精度,多场景,快响应,AI&大数据助力企业降本增效

 
 

    盘古ai大模型入口 更多内容
  • 功能总览

    工具,模型开发工具链能够保障模型在不同环境中的高效应用。 支持区域: 西南-贵阳一 开发盘古NLP模型 开发盘古科学计算模型 压缩盘古模型 部署盘古模型 调用盘古模型 迁移盘古模型 应用开发工具 链 应用开发工具链是盘古模型平台的关键模块,支持提示词工程和智能Agent应用创建。

    来自:帮助中心

    查看更多 →

  • NLP大模型

    NLP模型 文本对话 父主题: API

    来自:帮助中心

    查看更多 →

  • 成长地图

    如何对盘古模型的安全性展开评估和防护? 训练智能客服系统模型需考虑哪些方面? 如何调整训练参数,使盘古模型效果最优? 如何判断盘古模型训练状态是否正常? 为什么微调后的盘古模型总是重复相同的回答? 盘古模型是否可以自定义人设? 更多 模型概念类 如何对盘古模型的安全性展开评估和防护?

    来自:帮助中心

    查看更多 →

  • ModelArts Studio大模型开发平台使用流程

    训练NLP模型 压缩NLP模型 通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。 压缩NLP模型 部署NLP模型 部署后的模型可进行调用操作。 部署NLP模型 调用NLP模型 支持“能力调测”功能与API两种方式调用模型。 调用NLP模型 盘古NLP大模型应用开发

    来自:帮助中心

    查看更多 →

  • 如何对盘古大模型的安全性展开评估和防护

    如何对盘古模型的安全性展开评估和防护 盘古模型的安全性主要从以下方面考虑: 数据安全和隐私保护:模型涉及大量训练数据,这些数据是重要资产。为确保数据安全,需在数据和模型训练的全生命周期内,包括数据提取、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加密、

    来自:帮助中心

    查看更多 →

  • 为什么多轮问答场景的盘古大模型微调效果不好

    还是不行"} 数据质量:若数据格式没有问题,仍然发现模型效果不好,您可以根据具体问题针对性的提升您的数据质量。比如,随着对话轮数的增加,模型出现了遗忘,可以检查构造的训练数据中轮数是否普遍较少,建议根据实际情况增加数据中的对话轮数。 父主题: 模型微调训练类问题

    来自:帮助中心

    查看更多 →

  • 数据量足够,为什么盘古大模型微调效果仍然不好

    数据量足够,为什么盘古模型微调效果仍然不好 这种情况可能是由于以下原因导致的,建议您排查: 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大、样本中存在异常数据、样本的多样性较差,都将影响模型训练的效果,建议提升您的数据质量。 父主题: 模型微调训练类问题

    来自:帮助中心

    查看更多 →

  • 为什么微调后的盘古大模型总是重复相同的回答

    为什么微调后的盘古模型总是重复相同的回答 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成了复读机式的结果,即回答中反复出现某一句话或某几句话。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“话题重复度控制”或“温度”或

    来自:帮助中心

    查看更多 →

  • 训练NLP大模型

    训练NLP模型 NLP模型训练流程与选择建议 创建NLP模型训练任务 查看NLP模型训练状态与指标 发布训练后的NLP模型 管理NLP模型训练任务 NLP模型训练常见报错与解决方案 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • AI Gallery的入口在哪里

    AI Gallery的入口在哪里 控制台入口 登录ModelArts管理控制台。 在左侧导航栏中选择“AI Gallery”跳转到AI Gallery首页。 直接网址访问 旧版AI Gallery将下线,已不再更新,建议使用新版AI Gallery。 旧版AI Gallery地址:https://developer

    来自:帮助中心

    查看更多 →

  • 数据工程

    式,包括默认格式和盘古格式。尤其对于文本类和图片类数据集,平台支持将其转换为专门用于训练盘古模型盘古格式,为后续模型训练提供高效的数据支持。 通过整合上述功能,数据工程模块不仅帮助用户高效构建高质量的训练数据集,还推动了模型的精确训练与持续优化,提升了AI应用开发的效率和成果的可靠性。

    来自:帮助中心

    查看更多 →

  • 压缩NLP大模型

    压缩NLP模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。当前仅支持对NLP模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio模型开发平台,进入所需操作空间。

    来自:帮助中心

    查看更多 →

  • 文本类数据集格式要求

    "target":"你好,请问有什么可以帮助你"},{"context":"请介绍一下盘古模型","target":"盘古模型,是华为推出盘古系列AI模型,包括NLP模型、多模态模型、CV模型、科学计算模型、预测模型。"}] 数据集最大100万个文件,单文件最大10GB,整个数据集最大10TB。

    来自:帮助中心

    查看更多 →

  • 大模型推理场景

    模型推理场景 模型推理场景介绍 用公共推理服务进行推理 创建我的推理服务进行推理 通过AOM查看全量指标

    来自:帮助中心

    查看更多 →

  • 科学计算大模型

    科学计算模型 气象/降水模型 海洋模型 父主题: API

    来自:帮助中心

    查看更多 →

  • 概述

    概述 盘古模型整合华为云强大的计算和数据资源,将先进的AI算法集成在预训练模型中,打造出具有深度语义理解与生成能力的人工智能语言模型。可进行对话互动、回答问题、协助创作。 盘古模型在ModelArts Studio模型开发平台部署后,可以通过API调用推理接口。 表1 API清单

    来自:帮助中心

    查看更多 →

  • 使用盘古应用百宝箱生成创意活动方案

    使用盘古应用百宝箱生成创意活动方案 场景描述 该示例演示了如何使用盘古应用百宝箱生成创意活动方案。 应用百宝箱是盘古模型服务为用户提供的便捷AI应用集,用户可在其中使用盘古模型预置的场景应用和外部应用,轻松体验模型开箱即用的强大能力。 操作流程 使用盘古应用百宝箱生成创意活动方案的步骤如下:

    来自:帮助中心

    查看更多 →

  • 基本概念

    基本概念 盘古药物分子模型 盘古药物分子模型是基于华为与中科院上海药物所共同研发、专门面向药物研发领域推出的预训练模型,旨在帮助医药公司开启AI辅助药物研发的新模式。盘古药物分子模型学习了17亿个药物分子的化学结构,模型参数上亿,是目前最大的小分子药物模型。华为盘古药物分子

    来自:帮助中心

    查看更多 →

  • 关键概念

    关键概念 盘古药物分子模型 盘古药物分子模型是基于华为与中科院上海药物所共同研发、专门面向药物研发领域推出的预训练模型,旨在帮助医药公司开启AI辅助药物研发的新模式。盘古药物分子模型学习了17亿个药物分子的化学结构,模型参数上亿,是目前最大的小分子药物模型。华为盘古药物分子

    来自:帮助中心

    查看更多 →

  • 调用NLP大模型

    调用NLP模型 使用“能力调测”调用NLP模型 使用API调用NLP模型 统计模型调用信息 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 部署NLP大模型

    部署NLP模型 创建NLP模型部署任务 查看NLP模型部署任务详情 管理NLP模型部署任务 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了