盘古大模型

 

盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

 
 

    AI大模型 更多内容
  • AI模型

    AI模型 创建模型 盘古辅助制药平台支持用户创建AI模型,目前AI模型只有专业版支持。AI建模支持创建属性模型和基模型。创建属性模型是基于自定义数据,对盘古药物分子模型进行微调,进行属性预测和迭代活性优化,实现干湿实验闭环。基模型基于自定义化合物数据,对盘古药物分子模型进行增量预训练,提升化合物表征精度。

    来自:帮助中心

    查看更多 →

  • AIGC模型

    AIGC模型 SDXL&SD1.5 ComfyUI插件基于DevServer适配PyTorch NPU推理指导(6.3.906) SDXL&SD1.5 ComfyUI基于Lite Cluster适配NPU推理指导(6.3.906) SDXL&SD1.5 WebUI基于Lite Cluster适配NPU推理指导(6

    来自:帮助中心

    查看更多 →

  • 使用大模型创建AI应用部署在线服务

    使用模型创建AI应用部署在线服务 背景说明 目前模型的参数量已经达到千亿甚至万亿,随之大模型的体积也越来越大。千亿参数模型的体积超过200G,在版本管理、生产部署上对平台系统产生了新的要求。例如:导入AI应用管理时,需要支持动态调整租户存储配额;模型加载、启动慢,部署时需要

    来自:帮助中心

    查看更多 →

  • LLM大语言模型

    LLM语言模型 主流开源模型基于DevServer适配PyTorch NPU训练指导(6.3.906) 主流开源模型基于DevServer适配PyTorch NPU推理指导(6.3.906) 主流开源模型基于Standard适配PyTorch NPU训练指导(6.3.906)

    来自:帮助中心

    查看更多 →

  • 部署AI Gallery模型为AI应用

    部署AI Gallery模型AI应用 AI Gallery支持将模型部署为AI应用,在线共享给其他用户使用。 前提条件 选择的模型必须是支持部署为AI应用的模型,否则模型详情页没有“部署 > AI应用”选项。 部署AI应用 登录AI Gallery。 单击“模型”进入模型列表。

    来自:帮助中心

    查看更多 →

  • 从AI Gallery订阅模型

    中,而云服务订阅模型管理在“AI应用>云服务订阅AI应用”页面中。 模型来源不同。我的订阅,模型来源于AI Gallery;云服务订阅模型模型来源于其他AI服务开发的模型。 我的订阅模型列表 在ModelArts的“AI应用>我的订阅”页面中,罗列了从AI Gallery订阅的所有模型。

    来自:帮助中心

    查看更多 →

  • 工业感知AI模型库

    工业感知AI模型库 工业AI感知库的建设目标是利用3C电子检测设备的运行所累积的资料,建立人工智能智能模型库,利用人工智能模型训练,不断地进行迭代,最后将其应用到3C的电子测试中,以提高整个3C相关产品的测试性能。 工业AI感知库采用了标准的体系结构,实现了多模式的串行整合,并实现了云计算的迅速发行。

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    --max-model-len的值。 config.json存在模型对应的路径下,例如:/data/nfs/benchmark/tokenizer/chatglm3-6b/config.json 父主题: 主流开源模型基于DevServer适配PyTorch NPU推理指导(6.3

    来自:帮助中心

    查看更多 →

  • 8大特色压测模型简介

    8特色压测模型简介 性能测试服务沉淀了30年高并发测试工程方案与实践,提供了浪涌(突发流量)、智能摸高(系统性能摸底)、震荡(模拟高低峰)、TPS模式(压力自定义)等8模式,快速构建真实场景,助力产品压测场景覆盖率提升50%,满足客户全场景的压测诉求。 父主题: 测试用例说明

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    --max-model-len的值。 config.json存在模型对应的路径下,例如:/data/nfs/benchmark/tokenizer/chatglm3-6b/config.json 父主题: 主流开源模型基于DevServer适配PyTorch NPU推理指导(6.3

    来自:帮助中心

    查看更多 →

  • 上架模型包至AI市场

    上架模型包至AI市场 单击模型包所在操作列的图标。 弹出提交确认提醒,如果确认提交,即将启动上架流程,提交模型到开发者空间,等待应用市场认证审批。 在“确认”弹框内单击“确定”。 系统提示启动上架流程成功,“上架状态”会显示模型包上架状态。 父主题: 模型管理

    来自:帮助中心

    查看更多 →

  • 大模型微调需要的数据有要求吗?

    模型微调需要的数据有要求吗? AI原生应用引擎用于模型微调的数据集任务领域为“ 自然语言处理 ”、数据集格式为“对话文本”。 文件内容要求为标准json数组,例如: [{"instruction": "aaa", "input": "aaa", "output": "aaa"},{"instruction":

    来自:帮助中心

    查看更多 →

  • 将AI应用发布到ModelArts模型管理

    AI应用发布到ModelArts模型管理 AI应用开发并调试完成后,开发者可以将AI应用服务到ModelArts AI应用管理模块,然后在ModelArts的推理平台进行应用的生产部署。发布AI应用包含了应用打包、构建镜像和发布这三个步骤。 打包AI应用 构建镜像 发布和部署AI应用

    来自:帮助中心

    查看更多 →

  • 使用AI原生应用引擎完成模型调优

    选择要调测的模型服务,在下拉列表选择步骤三:部署模型中部署的模型服务。 输出方式 可选非流式、流式。二者区别如下: 非流式:调用语言模型推理服务时,根据用户问题,获取语言模型的回答,语言模型完整生成回答后一次性返回。 流式:调用语言模型推理服务时,根据用户问题,获取语言模型的回答,逐个字词的快速返回模式,不需等待大语言模型生成完成。

    来自:帮助中心

    查看更多 →

  • 创建科大讯飞应用(星火交互认知大模型)

    创建科大讯飞应用(星火交互认知模型) 在科大讯飞创建星火交互认知模型的应用。详细操作如下所示: 星火交互认知模型应用,不支持直接切换为AIUI通用语义模型,不适用。建议参考创建科大讯飞应用(AIUI通用语义模型)单独为其创建应用。 创建应用 (可选)创建问答库 配置应用 查看应用信息

    来自:帮助中心

    查看更多 →

  • 方案概述

    该解决方案可以帮助您在华为云 弹性云服务器 E CS 上基于Geek-AI构建自己的创作系统。Geek-AI是基于 AI 语言模型 API 实现的 AI 助手全套开源解决方案,自带运营管理后台,开箱即用。集成了 OpenAI、 Azure ChatGLM、讯飞星火、文心一言等多个平台的语言模型。集成了 MidJourney

    来自:帮助中心

    查看更多 →

  • 根据模型输入指定AIPP配置说明

    AIPP配置文件支持定义多组AIPP配置,对不同的模型输入进行不同的AIPP处理,配置多组AIPP参数时,将一组AIPP配置放到一个aipp_op配置项里,举例如下:上述配置定义了两组AIPP参数,分别对模型第一个和第二个输入进行AIPP处理,AIPP的模式为动态AIPP,两个输入可以接受的最大的图片大小分别是60000字节和80000字

    来自:帮助中心

    查看更多 →

  • 根据模型输入指定AIPP配置说明

    AIPP配置文件支持定义多组AIPP配置,对不同的模型输入进行不同的AIPP处理,配置多组AIPP参数时,将一组AIPP配置放到一个aipp_op配置项里,举例如下: aipp_op { related_input_rank: 0 aipp_mode

    来自:帮助中心

    查看更多 →

  • AIPP对模型输入大小的校验说明

    如果有配置AIPP,无论静态AIPP还是动态AIPP,最终生成的Davinci模型的接收的图片的大小(即input_size)均会被Crop、Padding等操作影响。在模型推理阶段,OME会对传入的图片的大小进行校验,如果是动态AIPP,要求模型推理时传入的图片的大小小于等于动态AIPP配置的max_src_image_size大小;如

    来自:帮助中心

    查看更多 →

  • 导入AI应用提示模型或镜像大小超过限制

    导入AI应用提示模型或镜像大小超过限制 问题现象 在导入AI应用时,提示模型或镜像大小超过限制。 原因分析 如果使用的是OBS导入或者训练导入,则是基础镜像、模型文件、代码、数据文件和下载安装软件包的大小总和超过了限制。 如果使用的是 自定义镜像 导入,则是解压后镜像和镜像下载文件的大小总和超过了限制。

    来自:帮助中心

    查看更多 →

  • AIPP对模型输入大小的校验说明

    如果有配置AIPP,无论静态AIPP还是动态AIPP,最终生成的Davinci模型的接收的图片的大小(即input_size)均会被Crop、Padding等操作影响。在模型推理阶段,OME会对传入的图片的大小进行校验,如果是动态AIPP,要求模型推理时传入的图片的大小小于等于动态AIPP配置的max_src_image_size大小;如

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了