更新时间:2026-04-02 GMT+08:00
分享

KubeInfer(ModelArts Infers Operator)

插件简介

在AI应用开发与部署过程中,用户经常需要在创建专属资源池时集成特定的插件以支持模型推理等关键功能。然而,传统的插件安装方式往往需要手动配置,不仅耗时费力,还容易出错,影响AI应用的快速上线。为了提升用户体验,华为云ModelArts平台在创建专属资源池,选择新版推理作业时,支持KubeInfer(ModelArts Infers Operator)插件的默认安装。

KubeInfer插件是一款为复杂推理服务提供高级部署和管理能力的插件。它将需要多个Pod协同工作的服务抽象为统一的“实例”,并实现实例层级的整体调度、滚动升级与故障恢复,以简化大模型等场景下的部署和运维工作。

用户在创建资源池时,可以选择安装KubeInfer插件,实现推理能力的开箱即用,简化配置流程,提高部署效率。此外,ModelArts插件中心还提供了插件的安装、卸载、升级等全生命周期管理功能,确保插件管理的便捷性和安全性,降低运维成本与风险。

安装插件

创建资源池开启新版推理任务时,自动安装该插件。

组件说明

容器组件

说明

资源类型

modelarts-infers-operator

modelarts-infers-operator组件支持将多个Pod抽象为统一的推理“实例”,并提供实例级别的整体调度、滚动升级、故障恢复及弹性伸缩等全生命周期管理能力。

Deployment

版本记录

插件版本

更新特性

7.5.2

支持单元副本和单元副本重建策略。单元配置相关内容请参见推理部署》的“部署同步在线服务”章节。

7.3.0

支持在专属资源池“轻量算力集群” 上使用KubeInfer插件。

相关文档