盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    科学计算大模型 更多内容
  • 计算在云

    计算在云 Sdk::GetSolution 父主题: 改造功能模块说明

    来自:帮助中心

    查看更多 →

  • 计算规格说明

    计算规格说明 AI Gallery提供了多种计算规格供用户按需选用。只要用户的账号费用充足,就可以持续使用资源,详细计费说明请参见计费说明。 计费说明 AI Gallery的计费规则如表1所示。 表1 计费说明 规则 说明 话单上报规则 仅当AI Gallery工具链服务创建成功

    来自:帮助中心

    查看更多 →

  • 大容量数据库背景介绍

    看成子问题的解的合并。对于容量数据场景,数据库提供对数据进行“分治处理”的方式即分区,将逻辑数据库或其组成元素划分为不同的独立部分,每一个分区维护逻辑上存在相类似属性的数据,这样就把庞大的数据整体进行了切分,有利于数据的管理、查找和维护。 父主题: 容量数据库

    来自:帮助中心

    查看更多 →

  • 基本概念

    盘古药物分子模型 盘古药物分子模型是基于华为与中科院上海药物所共同研发、专门面向药物研发领域推出的预训练模型,旨在帮助医药公司开启AI辅助药物研发的新模式。盘古药物分子模型学习了17亿个药物分子的化学结构,模型参数上亿,是目前最大的小分子药物模型。华为盘古药物分子模型在分子生

    来自:帮助中心

    查看更多 →

  • 关键概念

    盘古药物分子模型 盘古药物分子模型是基于华为与中科院上海药物所共同研发、专门面向药物研发领域推出的预训练模型,旨在帮助医药公司开启AI辅助药物研发的新模式。盘古药物分子模型学习了17亿个药物分子的化学结构,模型参数上亿,是目前最大的小分子药物模型。华为盘古药物分子模型在分子生

    来自:帮助中心

    查看更多 →

  • 大容量数据库背景介绍

    看成子问题的解的合并。对于容量数据场景,数据库提供对数据进行“分治处理”的方式即分区,将逻辑数据库或其组成元素划分为不同的独立部分,每一个分区维护逻辑上存在相类似属性的数据,这样就把庞大的数据整体进行了切分,有利于数据的管理、查找和维护。 父主题: 容量数据库

    来自:帮助中心

    查看更多 →

  • 训练智能客服系统大模型需要考虑哪些方面

    案例库和FAQ库等,可以使用“先搜后推”的解决方案。客户的文档库可以实时更新,模型的应答可以无缝实时更新。(搜索+模型解决方案) 父主题: 模型概念类问题

    来自:帮助中心

    查看更多 →

  • ModelArts最佳实践案例列表

    Standard的训练过程,训练使用PyTorch框架和昇腾NPU计算资源。 训练后的模型可用于推理部署,搭建模型问答助手。 主流开源模型基于DevServer适配PyTorch NPU推理指导(6.3.907) 推理部署、推理性能测试、推理精度测试、推理模型量化 介绍主流的开源模型Llama系列、Qwen系列

    来自:帮助中心

    查看更多 →

  • 大容量数据库背景介绍

    看成子问题的解的合并。对于容量数据场景,数据库提供对数据进行“分治处理”的方式即分区,将逻辑数据库或其组成元素划分为不同的独立部分,每一个分区维护逻辑上存在相类似属性的数据,这样就把庞大的数据整体进行了切分,有利于数据的管理、查找和维护。 父主题: 容量数据库

    来自:帮助中心

    查看更多 →

  • 大容量数据库背景介绍

    看成子问题的解的合并。对于容量数据场景,数据库提供对数据进行“分治处理”的方式即分区,将逻辑数据库或其组成元素划分为不同的独立部分,每一个分区维护逻辑上存在相类似属性的数据,这样就把庞大的数据整体进行了切分,有利于数据的管理、查找和维护。 父主题: 容量数据库

    来自:帮助中心

    查看更多 →

  • ModelArts入门实践

    r容器知识 主流开源模型基于Standard适配PyTorch NPU推理指导 本案例基于ModelArts Standard供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源模型的推理部署、模型评测、模型量化等功能。 面向熟悉代码编写和调测的AI工程师

    来自:帮助中心

    查看更多 →

  • 概述

    概述 盘古模型整合华为云强大的计算和数据资源,将先进的AI算法集成在预训练模型中,打造出具有深度语义理解与生成能力的人工智能语言模型。可进行对话互动、回答问题、协助创作。 华为云盘古模型,以下功能支持API调用。 表1 API清单 API 功能 NLP-文本补全 给定一个

    来自:帮助中心

    查看更多 →

  • 在模型广场查看模型

    Studio模型即服务平台。 在ModelArts Studio左侧导航栏中,选择“模型广场”进入模型广场。 选择模型,单击“立即使用”进入模型详情页。在模型详情页可以查看模型的详细介绍。 模型介绍 表1列举了ModelArts Studio模型即服务平台支持的模型清单,模型详细信息请查看界面介绍。

    来自:帮助中心

    查看更多 →

  • 方案概述

    行业:房产、物业、中介、板式定制家具、成品家具、定制门窗、瓷砖卫浴、智能家电等行业 业务:提供基于云的工业软件解决方案。通过云计算、大数据、AI人工智能技术,打造3D云设计、3D云制造、数控系统三产品矩阵,业务贯穿家居营销、设计、生产、制造管理、生产装备升级全流程。 客户痛点: 定制、成品等家具制造

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU训练指导(6.3.905)

    主流开源模型基于Standard适配PyTorch NPU训练指导(6.3.905) 场景介绍 准备工作 预训练 SFT全参微调训练 LoRA微调训练 查看日志和性能 训练脚本说明 父主题: LLM语言模型训练推理

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.905)

    主流开源模型基于Standard适配PyTorch NPU推理指导(6.3.905) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 父主题: LLM语言模型训练推理

    来自:帮助中心

    查看更多 →

  • 获取token消耗规则

    模型训练前评估文本的Token数量,提供费用预估,并优化数据预处理策略。 使用Token计算器的步骤如下: 登录盘古模型套件平台。 在“服务管理”页面,单击页面右上角“Token计算器”。 在Token计算器中选择所需的模型,并输入文本内容后,单击“开始计算”即可统计输入文本的Token数量。

    来自:帮助中心

    查看更多 →

  • 大模型的安全性需要从哪些方面展开评估和防护

    模型的安全性需要从哪些方面展开评估和防护 盘古模型的安全性主要从以下方面考虑: 数据安全和隐私保护:模型涉及大量训练数据,这些数据是重要资产。为确保数据安全,需在数据和模型训练的全生命周期内,包括数据提取、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加

    来自:帮助中心

    查看更多 →

  • HPC简介

    及高性能计算集群来解决大型计算问题,管理节点对计算任务进行分解,交给不同的计算节点完成计算。 各种业务场景下,因数据处理量、计算任务关联关系等不同,对计算能力、存储效率、网络带宽及时延要求有各自侧重。 HPC的应用场景 HPC提供了超高浮点计算能力解决方案,可用于解决计算密集型、

    来自:帮助中心

    查看更多 →

  • 盘古自然语言大模型的适用场景有哪些

    盘古自然语言模型的适用场景有哪些 自然语言处理 模型是一种参数量极大的预训练模型,是众多自然语言处理下游任务的基础模型。学术界和工业界的实践证明,随着模型参数规模的增加,自然语言处理下游任务的效果显著提升,这得益于海量数据、大量算力以及深度学习的飞跃发展。 基于自然语言处理模型的预

    来自:帮助中心

    查看更多 →

  • 使用大模型在ModelArts Standard创建AI应用部署在线服务

    使用模型在ModelArts Standard创建AI应用部署在线服务 背景说明 目前模型的参数量已经达到千亿甚至万亿,随之大模型的体积也越来越大。千亿参数模型的体积超过200G,在版本管理、生产部署上对平台系统产生了新的要求。例如:导入AI应用管理时,需要支持动态调整租户

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了