盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    科学计算大模型 更多内容
  • 开发盘古NLP大模型

    开发盘古NLP模型 使用数据工程构建NLP模型数据集 训练NLP模型 压缩NLP模型 部署NLP模型 调用NLP模型

    来自:帮助中心

    查看更多 →

  • 使用API调用NLP大模型

    使用API调用NLP模型 模型部署成功后,可以通过“文本对话”API调用NLP模型。 表1 NLP模型API清单 API分类 API访问路径(URI) 文本对话 /v1/{project_id}/deployments/{deployment_id}/chat/completions

    来自:帮助中心

    查看更多 →

  • 管理盘古大模型空间资产

    管理盘古模型空间资产 盘古模型空间资产介绍 管理盘古数据资产 管理盘古模型资产

    来自:帮助中心

    查看更多 →

  • LLM大语言模型训练推理

    主流开源模型基于Standard适配PyTorch NPU训练指导(6.3.906) 主流开源模型基于Standard适配PyTorch NPU推理指导(6.3.906) 主流开源模型基于DevServer适配PyTorch NPU训练指导(6.3.905) 主流开源模型基于DevServer适配PyTorch

    来自:帮助中心

    查看更多 →

  • 盘古大模型空间资产介绍

    等。此外,平台支持导出和导入盘古模型的功能,使用户能够将其他局点的盘古模型迁移到本局点,便于模型资源共享。 父主题: 管理盘古模型空间资产

    来自:帮助中心

    查看更多 →

  • 申请试用盘古大模型服务

    申请试用盘古模型服务 盘古模型为用户提供了服务试用,需提交试用申请,申请通过后试用盘古模型服务。 登录ModelArts Studio模型开发平台首页。 在首页单击“试用咨询”,申请试用盘古模型服务。 图1 申请试用 父主题: 准备工作

    来自:帮助中心

    查看更多 →

  • 创建NLP大模型部署任务

    置,启动模型部署。 表1 NlP模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古模型”。 模型类型 选择“NLP模型”。 部署模型 选择需要进行部署的模型。 部署方式 云上部署:算法部署至平台提供的资源池中。 最大TOKEN长度 模型可最大请求的上下文TOKEN数。

    来自:帮助中心

    查看更多 →

  • 大模型开发基本流程介绍

    模型开发基本流程介绍 模型(Large Models)通常指的是具有海量参数和复杂结构的深度学习模型,广泛应用于 自然语言处理 (NLP)等领域。开发一个模型的流程可以分为以下几个主要步骤: 数据集准备:模型的性能往往依赖于大量的训练数据。因此,数据集准备是模型开发的第一步。

    来自:帮助中心

    查看更多 →

  • 大模型开发基本概念

    模型开发基本概念 模型相关概念 概念名 说明 模型是什么 模型是大规模预训练模型的简称,也称预训练模型或基础模型。所谓预训练模型,是指在一个原始任务上预先训练出一个初始模型,然后在下游任务中对该模型进行精调,以提高下游任务的准确性。大规模预训练模型则是指模型参数达到千亿、

    来自:帮助中心

    查看更多 →

  • 管理NLP大模型部署任务

    管理NLP模型部署任务 模型更新、修改部署 成功创建部署任务后,如需修改已部署的模型或配置信息,可以在详情页面单击右上角的“模型更新”或“修改部署”进行调整。更新模型时可以替换模型,但在修改部署时模型不可替换。 在“模型更新”或“修改部署”后进行升级操作时,可选择全量升级或滚动升级两种方式:

    来自:帮助中心

    查看更多 →

  • 开发盘古大模型Agent应用

    开发盘古模型Agent应用 Agent开发平台概述 手工编排Agent应用 创建与管理工作流

    来自:帮助中心

    查看更多 →

  • 创建盘古NLP大模型SFT任务

    本样例场景实现将处理好的数据集发布为模型训练可用的数据集。 步骤6:训练NLP模型 本样例场景实现NLP模型的训练操作。 步骤7:压缩NLP模型 本样例场景实现NLP模型的压缩操作。压缩是指通过减少模型的参数量或计算复杂度,在尽量保持模型性能的前提下,减小其存储需求和推理时间,从而提升模型的部署效率

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    el.py中的main函数,保存模型时将safe_serialization指定为False int8_model.save_pretrained(output_path,safe_serialization=False) 父主题: 主流开源模型基于Server适配PyTorch

    来自:帮助中心

    查看更多 →

  • 查看NLP大模型部署任务详情

    查看NLP模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看模

    来自:帮助中心

    查看更多 →

  • 盘古NLP大模型能力与规格

    盘古NLP模型能力与规格 盘古NLP模型是业界首个超千亿参数的中文预训练模型,结合了大数据预训练和多源知识,借助持续学习不断吸收海量文本数据,持续提升模型性能。除了实现行业知识检索、文案生成、阅读理解等基础功能外,盘古NLP模型还具备模型调用等高级特性,可在智能客服、创意

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    --max-model-len的值。 config.json存在模型对应的路径下,例如:/data/nfs/benchmark/tokenizer/chatglm3-6b/config.json 父主题: 主流开源模型基于DevServer适配PyTorch NPU推理指导(6.3

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    附录:模型推理常见问题 问题1:在推理预测过程中遇到NPU out of memory。 解决方法:调整推理服务启动时的显存利用率,将--gpu-memory-utilization的值调小。 问题2:在推理预测过程中遇到ValueError:User-specified max_model_len

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    self.inv_freq.npu() 问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启 父主题: 主流开源模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.909)

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    self.inv_freq.npu() 问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启 父主题: 主流开源模型基于DevServer适配PyTorch NPU推理指导(6.3.908)

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    el.py中的main函数,保存模型时将safe_serialization指定为False int8_model.save_pretrained(output_path,safe_serialization=False) 父主题: 主流开源模型基于Lite Cluster适配PyTorch

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    附录:模型推理常见问题 问题1:在推理预测过程中遇到NPU out of memory。 解决方法:调整推理服务启动时的显存利用率,将--gpu-memory-utilization的值调小。 问题2:在推理预测过程中遇到ValueError:User-specified max_model_len

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了