盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    多模态大模型 更多内容
  • 多模态检索

    模态检索 模态检索通过大模型算法,对用户视频库进行特征提取,再通过多模态视频检索功能,检索出满足文本或者视频搜索条件的视频片段。 前提条件 在服务控制台“总览”>“我的模型”区域,开通“模态检索”服务,具体操作步骤请参考开通我的模型和购买套餐包。 视频库配置 在左侧菜单栏中单击“智驾模型服务

    来自:帮助中心

    查看更多 →

  • 多模态模型推理性能测试

    模态模型推理性能测试 benchmark方法介绍 静态性能测试:评估在固定输入、固定输出和固定并发下,模型的吞吐与首token延迟。该方式实现简单,能比较清楚的看出模型的性能和输入输出长度、以及并发的关系。 性能benchmark验证使用到的脚本存放在代码包AscendCloud-LLM-xxx

    来自:帮助中心

    查看更多 →

  • 多模态模型推理性能测试

    模态模型推理性能测试 benchmark方法介绍 静态性能测试:评估在固定输入、固定输出和固定并发下,模型的吞吐与首token延迟。该方式实现简单,能比较清楚的看出模型的性能和输入输出长度、以及并发的关系。 性能benchmark验证使用到的脚本存放在代码包AscendCloud-LLM-xxx

    来自:帮助中心

    查看更多 →

  • 多模态模型推理性能测试

    模态模型推理性能测试 benchmark方法介绍 静态性能测试:评估在固定输入、固定输出和固定并发下,模型的吞吐与首token延迟。该方式实现简单,能比较清楚的看出模型的性能和输入输出长度、以及并发的关系。 性能benchmark验证使用到的脚本存放在代码包AscendCloud-LLM-xxx

    来自:帮助中心

    查看更多 →

  • 文本类数据集格式要求

    "target":"你好,请问有什么可以帮助你"},{"context":"请介绍一下盘古模型","target":"盘古模型,是华为推出盘古系列AI模型,包括NLP模型多模态大模型、CV模型、科学计算模型、预测模型。"}] 数据集最大100万个文件,单文件最大10GB,整个数据集最大10TB。

    来自:帮助中心

    查看更多 →

  • 模态框

    模态模态框作为一个模态对话框的容器,支持向模态框中拖入各种组件,用于在模态框弹出时,用户必须先响应模态框后,才能对其他对象进行操作的场景。 模态对话框功能:当一个模态对话框弹出时,用户想要对模态框以外的应用程序进行操作时,必须先对该对话框进行响应,例如单击“确定”或“取消”按钮等将该对话框关闭。

    来自:帮助中心

    查看更多 →

  • NLP大模型

    NLP模型 文本对话 父主题: API

    来自:帮助中心

    查看更多 →

  • 科学计算大模型

    科学计算模型 气象/降水模型 海洋模型 父主题: API

    来自:帮助中心

    查看更多 →

  • 压缩NLP大模型

    压缩NLP模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。当前仅支持对NLP模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio模型开发平台,进入所需操作空间。

    来自:帮助中心

    查看更多 →

  • 训练NLP大模型

    训练NLP模型 NLP模型训练流程与选择建议 创建NLP模型训练任务 查看NLP模型训练状态与指标 发布训练后的NLP模型 管理NLP模型训练任务 NLP模型训练常见报错与解决方案 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 推理性能测试

    推理性能测试 语言模型推理性能测试 模态模型推理性能测试 父主题: 主流开源模型基于Server适配PyTorch NPU推理指导(6.3.909)

    来自:帮助中心

    查看更多 →

  • 推理性能测试

    推理性能测试 语言模型推理性能测试 模态模型推理性能测试 父主题: 主流开源模型基于Server适配PyTorch NPU推理指导(6.3.910)

    来自:帮助中心

    查看更多 →

  • 推理性能测试

    推理性能测试 语言模型推理性能测试 模态模型推理性能测试 父主题: 主流开源模型基于Server适配PyTorch NPU推理指导(6.3.911)

    来自:帮助中心

    查看更多 →

  • 什么是Flexus企业搜索

    搜索规划 利用LLM技术的Query分类、轮改写、复杂查询分解。 图文并茂&内容溯源 支持输出参考链接,和上下文语义相关的图片。 内容优选 通过query和片段的语义关系,精简出和query相关的web片段,达到减少下游模型推理成本,以及提升模型的推理效果。 缓存 利用缓存技术,预

    来自:帮助中心

    查看更多 →

  • 调用NLP大模型

    调用NLP模型 使用“能力调测”调用NLP模型 使用API调用NLP模型 统计模型调用信息 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 部署NLP大模型

    部署NLP模型 创建NLP模型部署任务 查看NLP模型部署任务详情 管理NLP模型部署任务 父主题: 开发盘古NLP模型

    来自:帮助中心

    查看更多 →

  • 在MaaS应用实践中心查看应用解决方案

    景提供一整套解决方案。 KooSearch 企业搜索服务:基于在MaaS开源模型部署的模型API,搭建企业专属方案、LLM驱动的语义搜索、模态搜索增强。 盘古数字人大脑:基于在MaaS开源模型部署的模型API,升级智能对话解决方案,含智能客服、数字人。 Dify:支持自部署的

    来自:帮助中心

    查看更多 →

  • MiniCPM-V2.0推理及LoRA微调基于DevServer适配PyTorch NPU指导(6.3.910)

    PU芯片训练。 MiniCPM系列的最新模态版本MiniCPM-V2.0。该模型基于MiniCPM 2.4B和SigLip-400M构建,共拥有2.8B参数。MiniCPM-V2.0具有领先的光学字符识别(OCR)和模态理解能力。该模型在综合性OCR能力评测基准OCRBenc

    来自:帮助中心

    查看更多 →

  • 调用科学计算大模型

    调用科学计算模型 使用“能力调测”调用科学计算模型 使用API调用科学计算模型 父主题: 开发盘古科学计算模型

    来自:帮助中心

    查看更多 →

  • 部署科学计算大模型

    部署科学计算模型 创建科学计算模型部署任务 查看科学计算模型部署任务详情 管理科学计算模型部署任务 父主题: 开发盘古科学计算模型

    来自:帮助中心

    查看更多 →

  • 训练科学计算大模型

    训练科学计算模型 科学计算模型训练流程与选择建议 创建科学计算模型训练任务 查看科学计算模型训练状态与指标 发布训练后的科学计算模型 管理科学计算模型训练任务 科学计算模型训练常见报错与解决方案 父主题: 开发盘古科学计算模型

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了