盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    华为云AI大模型 更多内容
  • 创建NLP大模型训练任务

    “微调”。模型选择完成后,参考表1完成训练参数设置。 表1 NLP模型微调参数说明 参数分类 训练参数 参数说明 训练配置 模型来源 选择“盘古模型模型类型 选择“NLP模型”。 训练类型 选择“微调”。 训练目标 全量微调:在模型有监督微调过程中,对模型的全部参数进

    来自:帮助中心

    查看更多 →

  • 管理NLP大模型训练任务

    管理NLP模型训练任务 在训练任务列表中,任务创建者可以对创建好的任务进行编辑、启动、克隆(复制训练任务)、重试(重新训练任务)和删除操作。 登录ModelArts Studio模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“模型开发 > 模型训练”,进入模型训练页面,可进行如下操作:

    来自:帮助中心

    查看更多 →

  • 开发盘古大模型提示词工程

    开发盘古模型提示词工程 什么是提示词工程 获取提示词模板 撰写提示词 横向比较提示词效果 批量评估提示词效果 发布提示词

    来自:帮助中心

    查看更多 →

  • 发布训练后的NLP大模型

    发布训练后的NLP模型 NLP模型训练完成后,需要执行发布操作,操作步骤如下: 在模型训练列表页面选择训练完成的任务,单击训练任务名称进去详情页。 在“训练结果”页面,单击“发布”。 图1 训练结果页面 填写资产名称、描述,选择对应的可见性,单击“确定”发布模型。 发布后的模型会作为资产同步显示在“空间资产

    来自:帮助中心

    查看更多 →

  • 大模型微调训练类问题

    模型微调训练类问题 无监督领域知识数据量无法支持增量预训练,如何进行模型学习 如何调整训练参数,使盘古模型效果最优 如何判断盘古模型训练状态是否正常 如何评估微调后的盘古模型是否正常 如何调整推理参数,使盘古模型效果最优 为什么微调后的盘古模型总是重复相同的回答 为什么微调后的盘古大模型的回答中会出现乱码

    来自:帮助中心

    查看更多 →

  • 8大特色压测模型简介

    8特色压测模型简介 性能测试服务沉淀了30年高并发测试工程方案与实践,提供了浪涌(突发流量)、智能摸高(系统性能摸底)、震荡(模拟高低峰)、TPS模式(压力自定义)等8模式,快速构建真实场景,助力产品压测场景覆盖率提升50%,满足客户全场景的压测诉求。 压力测试支持的8种模式如下:

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    self.inv_freq.npu() 问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启。 父主题: 主流开源模型基于Server适配PyTorch NPU推理指导(6.3.909)

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    self.inv_freq.npu() 问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启 父主题: 主流开源模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.910)

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    _model.py中的main函数,保存模型时将safe_serialization指定为False int8_model.save_pretrained(output_path,safe_serialization=False) 父主题: 主流开源模型基于Standard适配PyTorch

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    --max-model-len的值。 config.json存在模型对应的路径下,例如:/data/nfs/benchmark/tokenizer/chatglm3-6b/config.json 父主题: 主流开源模型基于DevServer适配PyTorch NPU推理指导(6.3

    来自:帮助中心

    查看更多 →

  • 创建科学计算大模型部署任务

    ,启动模型部署。 表1 科学计算模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古模型”。 模型类型 选择“科学计算模型”。 场景 选择模型场景,分为“全球天气要素预测”、“全球中期降水预测”、“全球中期海洋智能预测”、“区域中期海洋智能预测”、

    来自:帮助中心

    查看更多 →

  • 创建盘古NLP大模型SFT任务

    压缩后模型名称及描述。 参数填写完成后单击“立即创建”创建模型压缩任务。 步骤8:部署NLP模型 在左侧导航栏中选择“模型开发 > 模型部署”,单击“创建部署”。 在“创建部署”页面,选择“盘古模型 > NLP模型”,单击“从资产选模型”,选择步骤7:压缩NLP模型步骤中压缩后的模型。

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    _model.py中的main函数,保存模型时将safe_serialization指定为False int8_model.save_pretrained(output_path,safe_serialization=False) 父主题: 主流开源模型基于Server适配PyTorch

    来自:帮助中心

    查看更多 →

  • 发布和管理AI Gallery模型

    发布和管理AI Gallery模型 构建模型 托管模型AI Gallery 发布模型AI Gallery 管理AI Gallery模型 父主题: AI Gallery(新版)

    来自:帮助中心

    查看更多 →

  • 上架模型包至AI市场

    上架模型包至AI市场 单击模型包所在操作列的图标。 弹出提交确认提醒,如果确认提交,即将启动上架流程,提交模型到开发者空间,等待应用市场认证审批。 在“确认”弹框内单击“确定”。 系统提示启动上架流程成功,“上架状态”会显示模型包上架状态。 父主题: 模型管理

    来自:帮助中心

    查看更多 →

  • 将AI Gallery中的模型部署为AI应用

    AI Gallery中的模型部署为AI应用 AI Gallery支持将模型部署为AI应用,在线共享给其他用户使用。 前提条件 选择的模型必须是支持部署为AI应用的模型,否则模型详情页没有“部署 > AI应用”选项。 部署AI应用 登录AI Gallery。 单击“模型”进入模型列表。

    来自:帮助中心

    查看更多 →

  • 盘古科学计算大模型能力与规格

    在选择和使用盘古模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调、模型评测、模型压缩、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是盘古科学计算模型支持的具体操作: 表2 盘古科学计算模型支持的操作 模型 预训练 微调

    来自:帮助中心

    查看更多 →

  • 发布训练后的科学计算大模型

    发布训练后的科学计算模型 科学计算模型训练完成后,需要执行发布操作,操作步骤如下: 在模型训练列表页面选择训练完成的任务,单击训练任务名称进去详情页。 在“训练结果”页面,单击“发布”。 图1 训练结果 填写资产名称、描述,选择对应的可见性,单击“确定”发布模型。 发布后的模型会作为资产同步显示在“空间资产

    来自:帮助中心

    查看更多 →

  • 查看NLP大模型训练状态与指标

    查看NLP模型训练状态与指标 模型启动训练后,可以在模型训练列表中查看训练任务的状态,单击任务名称可以进入详情页查看训练指标、训练任务详情和训练日志。 查看模型训练状态 在模型训练列表中查看训练任务的状态,各状态说明详见表1。 表1 训练状态说明 训练状态 训练状态含义 已发布

    来自:帮助中心

    查看更多 →

  • 附录:Standard大模型推理常见问题

    self.inv_freq.npu() 问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启 父主题: 主流开源模型基于Standard适配PyTorch NPU推理指导(6.3.910)

    来自:帮助中心

    查看更多 →

  • 使用大模型在ModelArts Standard创建模型部署在线服务

    使用模型在ModelArts Standard创建模型部署在线服务 背景说明 目前模型的参数量已经达到千亿甚至万亿,随之大模型的体积也越来越大。千亿参数模型的体积超过200G,在版本管理、生产部署上对平台系统产生了新的要求。例如:导入模型时,需要支持动态调整租户存储配额;模

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了