盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    AI大模型 更多内容
  • 查看NLP大模型训练状态与指标

    查看NLP模型训练状态与指标 模型启动训练后,可以在模型训练列表中查看训练任务的状态,单击任务名称可以进入详情页查看训练指标、训练任务详情和训练日志。 查看模型训练状态 在模型训练列表中查看训练任务的状态,各状态说明详见表1。 表1 训练状态说明 训练状态 训练状态含义 已发布

    来自:帮助中心

    查看更多 →

  • 附录:Standard大模型推理常见问题

    self.inv_freq.npu() 问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启 父主题: 主流开源模型基于Standard适配PyTorch NPU推理指导(6.3.910)

    来自:帮助中心

    查看更多 →

  • 创建科学计算大模型训练任务

    计算模型”。模型选择完成后,参考表1、表2完成训练参数设置,启动模型训练。 表1 科学计算模型(中期天气要素预测)训练参数说明 参数分类 参数名称 参数说明 训练配置 模型来源 选择“盘古模型”。 模型类型 选择“科学计算模型”。 场景 选择“中期天气要素预测”。 训练类型

    来自:帮助中心

    查看更多 →

  • ModelArts Studio大模型开发平台使用流程

    开发盘古科学计算模型 训练科学计算模型 进行模型的训练,如预训练、微调等训练方式。 训练科学计算模型 部署科学计算模型 部署后的模型可进行调用操作。 部署科学计算模型 调用科学计算模型 支持“能力调测”功能与API两种方式调用模型。 调用科学计算模型 管理盘古模型空间资产

    来自:帮助中心

    查看更多 →

  • NLP大模型训练流程与选择建议

    NLP模型训练流程与选择建议 NLP模型训练流程介绍 NLP模型专门用于处理和理解人类语言。它能够执行多种任务,如对话问答、文案生成和阅读理解,同时具备逻辑推理、代码生成和插件调用等高级功能。 NLP模型的训练分为两个关键阶段:预训练和微调。 预训练阶段:在这一阶段,模型通过

    来自:帮助中心

    查看更多 →

  • 使用“能力调测”调用NLP大模型

    使用“能力调测”调用NLP模型 平台提供的“能力调测”功能支持用户直接调用预置模型或经过训练的模型。使用该功能前,需完成模型的部署操作,详见创建NLP模型部署任务。 NLP模型支持文本对话能力,在输入框中输入问题,模型就会返回对应的答案内容。 图1 调测NLP模型 表1 NLP模型能力调测参数说明

    来自:帮助中心

    查看更多 →

  • 查看科学计算大模型部署任务详情

    查看科学计算模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理standard常见问题

    附录:模型推理standard常见问题 问题1:在推理预测过程中遇到NPU out of memory。 解决方法:调整推理服务启动时的显存利用率,将--gpu-memory-utilization的值调小。 问题2:在推理预测过程中遇到ValueError:User-specified

    来自:帮助中心

    查看更多 →

  • 附录:Standard大模型推理常见问题

    self.inv_freq.npu() 问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启 父主题: 主流开源模型基于Standard适配PyTorch NPU推理指导(6.3.908)

    来自:帮助中心

    查看更多 →

  • 附录:Standard大模型推理常见问题

    self.inv_freq.npu() 问题7:使用Qwen2-7B、Qwen2-72B模型有精度问题,重复输出感叹号 检查【配置环境变量】章节中,高精度模式的环境变量是否开启 父主题: 主流开源模型基于Standard适配PyTorch NPU推理指导(6.3.909)

    来自:帮助中心

    查看更多 →

  • 大模型微调需要的数据有要求吗?

    模型微调需要的数据有要求吗? AI原生应用引擎用于模型微调的数据集任务领域为“ 自然语言处理 ”、数据集格式为“对话文本”。 文件内容要求为标准json数组,例如: [{"instruction": "aaa", "input": "aaa", "output": "aaa"},{"instruction":

    来自:帮助中心

    查看更多 →

  • 创建视频类数据集标注任务

    创建视频类数据集标注任务前,请先完成创建视频类数据集加工任务。 创建视频类数据集标注任务步骤如下: 登录ModelArts Studio模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据标注 > 标注管理”,单击页面右上角“创建标注任务”。

    来自:帮助中心

    查看更多 →

  • 提供现场服务吗?

    华为云国内场景: 对购买了SFS Turbo AI大模型性能诊断与优化服务基础包/EVS性能诊断与优化服务基础包的客户,优先提供远程服务,会结合项目需求,提供连续的、不超过2人天以内的现场驻场。 对购买了SFS Turbo AI大模型性能诊断与优化服务增量包/EVS性能诊断与优化

    来自:帮助中心

    查看更多 →

  • MaaS大模型即服务平台功能介绍

    MaaS模型即服务平台功能介绍 对于普通企业来说,模型开发不仅需要强大的算力,还需要学习训练、部署的相关参数配置和规格选择等专业知识。ModelArts Studio模型即服务平台(后续简称为MaaS服务)作为一个面向客户的模型服务化平台,提供简单易用的模型开发工具链,支

    来自:帮助中心

    查看更多 →

  • 科学计算大模型训练流程与选择建议

    科学计算模型训练流程与选择建议 科学计算模型训练流程介绍 科学计算模型主要用于。 科学计算模型的训练主要分为两个阶段:预训练与微调。 预训练阶段:预训练是模型学习基础知识的过程,基于大规模通用数据集进行。例如,在区域海洋要素预测中,可以重新定义深海变量、海表变量,调整深度

    来自:帮助中心

    查看更多 →

  • 盘古大模型是否可以自定义人设

    盘古模型是否可以自定义人设 模型支持设置人设,在用户调用对话问答(chat/completions)API时,可以将“role”参数设置为system,让模型按预设的人设风格回答问题。例如,以下示例要求模型以幼儿园老师的风格回答问题。 { "messages": [

    来自:帮助中心

    查看更多 →

  • 使用“能力调测”调用科学计算大模型

    使用“能力调测”调用科学计算模型 平台提供的“能力调测”功能支持用户直接调用预置模型或经过训练的模型。使用该功能前,需完成模型的部署操作,详见创建科学计算模型部署任务。 科学计算模型支持全球中期天气要素预测、全球中期降水预测、全球海洋要素、区域海洋要素、全球海洋生态、全球海

    来自:帮助中心

    查看更多 →

  • 如何判断盘古大模型训练状态是否正常

    如何判断盘古模型训练状态是否正常 判断训练状态是否正常,通常可以通过观察训练过程中Loss(损失函数值)的变化趋势。损失函数是一种衡量模型预测结果和真实结果之间的差距的指标,正常情况下越小越好。 您可以从平台的训练日志中获取到每一步的Loss,并绘制成Loss曲线,来观察其变化

    来自:帮助中心

    查看更多 →

  • 通过Function Calling扩展大语言模型交互能力

    通过Function Calling扩展语言模型交互能力 Function Calling介绍 在Dify中配置支持Function Calling的模型使用 通过Function Calling扩展语言模型对外部环境的理解

    来自:帮助中心

    查看更多 →

  • 查看科学计算大模型训练状态与指标

    查看科学计算模型训练状态与指标 查看模型训练状态 模型启动训练后,可以在模型训练列表中查看训练任务的状态,单击任务名称可以进入详情页查看训练指标、训练任务详情和训练日志。 表1 训练状态说明 训练状态 训练状态含义 已发布 模型已经训练完成并进行发布,用户可以使用模型进行部署、推理操作。

    来自:帮助中心

    查看更多 →

  • 调用盘古NLP大模型API实现文本对话

    调用盘古NLP模型API实现文本对话前,请确保您已完成NLP模型的部署操作,详见《用户指南》“开发盘古NLP模型 > 部署NLP模型 > 创建NLP模型部署任务”。 操作流程 登录ModelArts Studio模型开发平台,进入所需空间。 获取调用路径及部署ID。单击左侧“模型开发

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了