更新时间:2026-02-06 GMT+08:00
分享

ModelArts功能介绍

ModelArts融合算力与框架级性能调优,为开发者提供高效训练、灵活部署的一站式AI开发平台,包括数据准备、模型开发与训练、模型部署、实时比对、模型调测、资源管理、运维运营等功能。

表1 ModelArts功能介绍

功能模块

功能描述

数据准备

数据获取是数据工程的第一步,ModelArts支持将不同来源和格式的数据导入平台,并生成“原始数据集”。通过数据连接功能,用户可以轻松将大量数据导入平台,为后续的数据加工和模型训练等操作做好准备。

模型开发

ModelArts提供灵活开放的开发环境,无需本地配置环境,即开即用。支持 PyTorch、TensorFlow、MindSpore 等主流引擎,可通过 JupyterLab 在线操作,或借助 SSH 连接搭配 VS Code、PyCharm 等本地 IDE 远程开发。

模型训练

ModelArts提供企业级AI分布式训练平台,全面兼容业内主流训练框架与模型,支持一键发起超大规模分布式任务,提供全栈加速、长稳可靠、敏捷易用的一站式训练解决方案,实现模型性能与业务迭代速度的双重跃升。

模型部署

ModelArts的新一代分布式弹性推理平台集分布式部署、弹性推理、智能调度与高可靠性于一体,深度集成自研优化的vLLM推理框架,支持主流开源模型的一键部署,提供更高效、灵活、易用的大模型推理解决方案,助力企业快速实现AI应用落地。

实时对比

支持同一模型不同部署版本(作业)之间的对比,通过精准的对比,确保每次迭代有据可依,选择最优模型。

资源管理

提供各种算力资源及配套的资源调度能力,覆盖训推全场景,提高资源利用率。

  • 专属算力资源:用户在使用ModelArts控制台进行AI开发(包括模型开发、训练推理)时所需的NPU等计算资源,均由ModelArts资源池提供,包括公共资源池和专属资源池。
  • 轻量算力节点:面向云主机资源型用户,基于裸金属服务器或弹性云服务器进行封装,可以通过弹性公网IP直接访问操作服务器。
  • 轻量算力集群:面向k8s资源型用户,提供k8s原生接口,用户可以直接操作资源池中的节点和k8s集群。

运维运营

集成运维监控看板(CES、AOM),可查看训练任务和在线服务的详细状态、监控指标(如利用率)和日志

相关文档