推理服务 更多内容
  • 推理精度测试

    推理精度测试 本章节介绍如何进行推理精度测试,请在Notebook的JupyterLab中另起一个Terminal,进行推理精度测试。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-LLM的llm_tools/llm_evaluation目录中,代码目录结构如下。

    来自:帮助中心

    查看更多 →

  • 推理精度测试

    推理精度测试 本章节介绍如何进行推理精度测试,数据集是ceval_gen、mmlu_gen。 前提条件 确保容器可以访问公网。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-LLM的llm_tools/llm_evaluation目录中,代码目录结构如下。

    来自:帮助中心

    查看更多 →

  • 推理服务支持虚拟私有云(VPC)直连的高速访问通道

    推理服务支持虚拟私有云(VPC)直连的高速访问通道 背景说明 访问在线服务的实际业务中,用户可能会存在如下需求: 高吞吐量、低时延 TCP或者RPC请求 因此,ModelArts提供了VPC直连的高速访问通道功能以满足用户的需求。 使用VPC直连的高速访问通道,用户的业务请求不需

    来自:帮助中心

    查看更多 →

  • 推理业务迁移评估表

    件列表)。 例如:Faiss等。 - 推理框架 TensorRT/Triton/MSLite等。 例如: 2个推理模型使用TensorRT框架,5个使用Triton框架。 通过stable-diffusion的WebUI提供AIGC推理服务。 - GPU卡的类型 Vnt1/Ant1/Ant03/Tnt004等。

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 父主题: 主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.906)

    来自:帮助中心

    查看更多 →

  • 推理基础镜像介绍

    推理基础镜像介绍 推理基础镜像列表 推理基础镜像详情TensorFlow(CPU/GPU) 推理基础镜像详情Pytorch(CPU/GPU) 推理基础镜像详情MindSpore(CPU/GPU) 父主题: 使用预置镜像

    来自:帮助中心

    查看更多 →

  • 第三方推理框架迁移到推理自定义引擎

    /bin/bash /home/mind/run.sh 完成镜像构建后,将镜像注册至华为云容器镜像服务SWR中,用于后续在ModelArts上部署推理服务。 使用适配后的镜像在ModelArts部署在线推理服务。 在obs中创建model目录,并将triton_serving.sh文件和lla

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化工具转换权重 使用SmoothQuant量化工具转换权重 使用kv-cache-int8量化 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906)

    来自:帮助中心

    查看更多 →

  • 执行模型推理

    Matrix框架提供AIModelManager类,实现模型加载和推理功能,详情请参考《Matrix API参考》。Matrix框架定义IAITensor类,用于管理模型推理的输入与输出矩阵。为了便于使用,Matrix框架基于IAITensor,派生出了AISimpleTensor和AINeuralNetworkBuffer。模型推理的输

    来自:帮助中心

    查看更多 →

  • 执行模型推理

    Matrix框架提供AIModelManager类,实现模型加载和推理功能,详情请参考《Matrix API参考》。Matrix框架定义IAITensor类,用于管理模型推理的输入与输出矩阵。为了便于使用,Matrix框架基于IAITensor,派生出了AISimpleTensor和AINeuralNetworkBuffer。模型推理的输

    来自:帮助中心

    查看更多 →

  • 推理基础镜像列表

    推理基础镜像列表 ModelArts的推理平台提供了一系列的基础镜像,用户可以基于这些基础镜像构建 自定义镜像 ,用于部署推理服务。 X86架构(CPU/GPU)的推理基础镜像 表1 TensorFlow AI引擎版本 支持的运行环境 URI 2.1.0 CPU GPU(cuda10

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    附录:大模型推理常见问题 问题1:在推理预测过程中遇到NPU out of memory 解决方法:调整推理服务启动时的显存利用率,将--gpu-memory-utilization的值调小。 问题2:在推理预测过程中遇到ValueError:User-specified max_model_len

    来自:帮助中心

    查看更多 →

  • 附录:大模型推理常见问题

    附录:大模型推理常见问题 问题1:在推理预测过程中遇到NPU out of memory 解决方法:调整推理服务启动时的显存利用率,将--gpu-memory-utilization的值调小。 问题2:在推理预测过程中遇到ValueError:User-specified max_model_len

    来自:帮助中心

    查看更多 →

  • 鲲鹏AI推理加速型

    鲲鹏AI推理加速型 鲲鹏AI推理加速型云服务器是专门为AI业务提供加速服务的云服务器。搭载昇腾系列芯片及软件栈。 该类型弹性云服务器默认未开启超线程,每个vCPU对应一个底层物理内核。 鲲鹏AI推理加速型系列:搭载自研昇腾310芯片,为AI推理业务加速。 表1 鲲鹏AI推理加速型实例特点

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906) 场景介绍 准备工作 在Notebook调试环境中部署推理服务推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 父主题: LLM大语言模型

    来自:帮助中心

    查看更多 →

  • 模型管理简介

    :将模型包上架到应用市场。 :发布成推理服务。配置请参见发布推理服务。 :发布推理服务成功后,可通过此图标进入推理服务的快速验证界面。 :推理服务发布失败,单击可重新发布推理服务。 :已发布推理服务的模型包更新后,单击可更新发布推理服务,更新推理服务版本号最后一位默认在原版本基础上加1。

    来自:帮助中心

    查看更多 →

  • 模板管理

    模板管理 云端推理框架新增模板能力,用户在云端推理框架发布推理服务时,可以使用系统预置的模板,将模型包发布成推理服务。 背景信息 在模型训练服务“模型管理”界面发布的推理服务,仅封装了Tensorflow类型的模型。对模型包格式上限制导致定制会比较多。或者使用特殊环境的Case难

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.905)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.905) 场景介绍 准备工作 在Notebook调试环境中部署推理服务推理生产环境中部署推理服务 推理精度测试 推理性能测试 父主题: LLM大语言模型

    来自:帮助中心

    查看更多 →

  • 更新管理

    更新管理 ModelArts在线服务更新 对于已部署的推理服务,ModelArts支持通过更换AI应用的版本号,实现服务升级。 推理服务有三种升级模式:全量升级、滚动升级(扩实例)和滚动升级(缩实例)。了解三种升级模式的流程,请参见图1。 全量升级 需要额外的双倍的资源,先全量创建新版本实例,然后再下线旧版本实例。

    来自:帮助中心

    查看更多 →

  • 模型推理代码编写说明

    模型推理代码编写说明 本章节介绍了在ModelArts中模型推理代码编写的通用方法及说明,针对常用AI引擎的自定义脚本代码示例(包含推理代码示例),请参见自定义脚本代码示例。本文在编写说明下方提供了一个TensorFlow引擎的推理代码示例以及一个在推理脚本中自定义推理逻辑的示例。

    来自:帮助中心

    查看更多 →

  • 修订记录

    平台”章节全量内容。 模型训练服务的“模型训练”菜单界面优化,对应刷新“模型训练”章节全量内容。 模型训练服务的“模型管理”页面增加推理服务入口,对应刷新“发布推理服务”章节内容。 2019-12-30 新增如下章节: 订购模型训练服务 模型训练服务首页简介 JupyterLab开发平台

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了