盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    华为云AI大模型 更多内容
  • AI模型

    AI模型 创建模型 盘古辅助制药平台支持用户创建AI模型,目前AI模型只有专业版支持。AI建模支持创建属性模型和基模型。创建属性模型是基于自定义数据,对盘古药物分子模型进行微调,进行属性预测和迭代活性优化,实现干湿实验闭环。基模型基于自定义化合物数据,对盘古药物分子模型进行增量预训练,提升化合物表征精度。

    来自:帮助中心

    查看更多 →

  • NLP大模型

    NLP模型 文本对话 父主题: API

    来自:帮助中心

    查看更多 →

  • 科学计算大模型

    科学计算模型 气象/降水模型 海洋模型 父主题: API

    来自:帮助中心

    查看更多 →

  • 压缩NLP大模型

    压缩NLP模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。当前仅支持对NLP模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio模型开发平台,进入所需操作空间。

    来自:帮助中心

    查看更多 →

  • 训练NLP大模型

    训练NLP模型 NLP模型训练流程与选择建议 创建NLP模型训练任务 查看NLP模型训练状态与指标 发布训练后的NLP模型 管理NLP模型训练任务 NLP模型训练常见报错与解决方案 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 调用NLP大模型

    调用NLP模型 使用“能力调测”调用NLP模型 使用API调用NLP模型 统计模型调用信息 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 部署NLP大模型

    部署NLP模型 创建NLP模型部署任务 查看NLP模型部署任务详情 管理NLP模型部署任务 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 使用云存储优化与提升服务获得的最终交付件是什么?

    使用云存储优化与提升服务获得的最终交付件是什么? 购买云存储AI模型性能诊断与优化服务-SFS Turbo AI模型性能诊断与优化服务基础包/增量包会获得交付件《华为云AI大模型存储方案规划设计书》,含对企业业务系统的调研结果、存储性能诊断,资源配置建议和详细的配置指南。 购

    来自:帮助中心

    查看更多 →

  • 调用科学计算大模型

    调用科学计算模型 使用“能力调测”调用科学计算模型 使用API调用科学计算模型 父主题: 开发盘古科学计算模型

    来自:帮助中心

    查看更多 →

  • 大模型使用类问题

    模型使用类问题 盘古模型是否可以自定义人设

    来自:帮助中心

    查看更多 →

  • 部署科学计算大模型

    部署科学计算模型 创建科学计算模型部署任务 查看科学计算模型部署任务详情 管理科学计算模型部署任务 父主题: 开发盘古科学计算模型

    来自:帮助中心

    查看更多 →

  • 训练科学计算大模型

    训练科学计算模型 科学计算模型训练流程与选择建议 创建科学计算模型训练任务 查看科学计算模型训练状态与指标 发布训练后的科学计算模型 管理科学计算模型训练任务 科学计算模型训练常见报错与解决方案 父主题: 开发盘古科学计算模型

    来自:帮助中心

    查看更多 →

  • 开发盘古NLP大模型

    开发盘古NLP模型 使用数据工程构建NLP模型数据集 训练NLP模型 压缩NLP模型 部署NLP模型 调用NLP模型

    来自:帮助中心

    查看更多 →

  • 什么是盘古大模型

    什么是盘古模型 盘古模型服务致力于深耕行业,打造多领域行业大模型和能力集。ModelArts Studio模型开发平台是盘古模型服务推出的集数据管理、模型训练和模型部署为一体的一站式模型开发平台及模型应用开发平台,盘古NLP、科学计算模型能力通过ModelArts S

    来自:帮助中心

    查看更多 →

  • 大模型概念类问题

    模型概念类问题 如何对盘古模型的安全性展开评估和防护 训练智能客服系统模型需考虑哪些方面

    来自:帮助中心

    查看更多 →

  • AIGC模型训练推理

    AIGC模型训练推理 FlUX.1基于DevServer适配PyTorch NPU推理指导(6.3.911) FLUX.1基于DevSever适配PyTorch NPUFintune&Lora训练指导(6.3.911) Llama 3.2-Vision基于DevServer适配Pytorch

    来自:帮助中心

    查看更多 →

  • 管理AI Gallery模型

    管理AI Gallery模型 编辑模型介绍 资产发布上架后,准确、完整的资产介绍有助于提升资产的排序位置和访问量,能更好的支撑用户使用该资产。 在模型详情页,选择“模型介绍”页签,单击右侧“编辑介绍”。 编辑模型基础设置和模型描述。 表1 模型介绍的参数说明 参数名称 说明 基础设置

    来自:帮助中心

    查看更多 →

  • 盘古大模型空间资产介绍

    等。此外,平台支持导出和导入盘古模型的功能,使用户能够将其他局点的盘古模型迁移到本局点,便于模型资源共享。 父主题: 管理盘古模型空间资产

    来自:帮助中心

    查看更多 →

  • 申请试用盘古大模型服务

    申请试用盘古模型服务 盘古模型为用户提供了服务试用,需提交试用申请,申请通过后试用盘古模型服务。 登录ModelArts Studio模型开发平台首页。 在首页单击“试用咨询”,申请试用盘古模型服务。 图1 申请试用 父主题: 准备工作

    来自:帮助中心

    查看更多 →

  • 创建NLP大模型部署任务

    置,启动模型部署。 表1 NlP模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古模型”。 模型类型 选择“NLP模型”。 部署模型 选择需要进行部署的模型。 部署方式 云上部署:算法部署至平台提供的资源池中。 最大TOKEN长度 模型可最大请求的上下文TOKEN数。

    来自:帮助中心

    查看更多 →

  • 使用API调用NLP大模型

    使用API调用NLP模型 模型部署成功后,可以通过“文本对话”API调用NLP模型。 表1 NLP模型API清单 API分类 API访问路径(URI) 文本对话 /v1/{project_id}/deployments/{deployment_id}/chat/completions

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了