文档首页 > > 产品介绍> 基础知识> 模型部署

模型部署

分享
更新时间: 2020/01/20 GMT+08:00

通常AI模型部署和规模化落地非常复杂。

例如,智慧交通项目中,在获得训练好的模型后,需要部署到云、边、端多种场景。如果在端侧部署,需要一次性部署到不同规格、不同厂商的摄像机上,这是一项非常耗时、费力的巨大工程,ModelArts支持将训练好的模型一键部署到端、边、云的各种设备上和各种场景上,并且还为个人开发者、企业和设备生产厂商提供了一整套安全可靠的一站式部署方式。

图1 部署模型的流程
  • 在线推理服务,可以实现高并发,低延时,弹性伸缩,并且支持多模型灰度发布、A/B测试。
  • 支持各种部署场景,既能部署为云端的在线推理服务和批量推理任务,也能部署到端,边等各种设备。
  • 一键部署,可以直接推送部署到边缘设备中,选择智能边缘节点,推送模型。
  • ModelArts基于华为自研Ascend 310高性能AI推理芯片的深度优化,具有PB级别的单日推理数据处理能力,支持发布云上推理的API百万个以上,推理网络时延毫秒。
分享:

    相关文档

    相关产品

文档是否有解决您的问题?

提交成功!

非常感谢您的反馈,我们会继续努力做到更好!

反馈提交失败,请稍后再试!

*必选

请至少选择或填写一项反馈信息

字符长度不能超过200

提交反馈 取消

如您有其它疑问,您也可以通过华为云社区问答频道来与我们联系探讨

智能客服提问云社区提问