企业通用专区

华为云联合生态伙伴,共同打造丰富多彩的精品应用。软件、协同办公、财税费控、人力资源、营销获客、电商零售、技术支撑、全应用场景商品满足企业多样化业务需求。

 

    lite os neon 更多内容
  • AOE的自动性能调优使用上完全没有效果怎么办?

    AOE的自动性能调优使用上完全没有效果怎么办? 在MindSpore Lite Convertor2.1版本之前可能出现的调优不生效的场景,建议直接使用MindSpore Lite Convertor2.1及以后的版本。配置文件指定选项进行AOE调优。使用转换工具配置config

    来自:帮助中心

    查看更多 →

  • 在lite资源池上使用Snt9B完成推理任务

    lite资源池上使用Snt9B完成推理任务 场景描述 本案例介绍如何在Snt9B上使用deployment部署在线在推理服务。 操作步骤 拉取镜像。本测试镜像为bert_pretrain_mindspore:v1,已经把测试数据和代码打进镜像中。 docker pull swr

    来自:帮助中心

    查看更多 →

  • 非直连设备管理

    添加设备 更新设备状态 删除设备 父主题: 设备侧Agent Lite API参考(Java)(联通用户专用)

    来自:帮助中心

    查看更多 →

  • 简介

    性能收益。 ModelArts针对上述使用场景,在给出系统化推理业务昇腾迁移方案的基础上,提供了即开即用的云上 集成开发环境 ,包含迁移所需要的算力资源和工具链,以及具体的Notebook代码运行示例和最佳实践,并对于实际的操作原理和迁移流程进行说明,包含迁移后的精度和性能验证、调试方法说明。

    来自:帮助中心

    查看更多 →

  • HCE OS如何配置与EulerOS相同的日志转储?

    HCE OS如何配置与EulerOS相同的日志转储? HCE OS版本中的日志转储配置在hce-logrotate软件包中,对应EulerOS中的euleros-logrotate软件包。 操作方法如下: 2023年6月之前发布的HCE OS 版本,默认未安装hce-logrotate软件包,需执行命令yum

    来自:帮助中心

    查看更多 →

  • 如何访问ModelArts

    如果您需要将ModelArts集成到第三方系统,用于二次开发,请使用API方式访问ModelArts,具体操作和API详细描述,请参见《API参考》。 云原生方式 如果您使用的是ModelArts Lite形态,您可以通过弹性公网IP直接访问云主机,或者通过k8s原生接口操作,详情请参见《ModelArts

    来自:帮助中心

    查看更多 →

  • SD1.5文生图适配MindSpore-Lite NPU推理指导

    SD1.5文生图适配MindSpore-Lite NPU推理指导 方案概览 本文档的源码是基于Stable Diffusion 1.5图像生成模型的开源仓进行MindSpore-Lite适配,并在ModelArts DevServer上部署,支持文生图的NPU推理场景。本文档从模

    来自:帮助中心

    查看更多 →

  • 模型适配

    模型适配 基于MindSpore Lite的模型转换 动态shape 父主题: 推理业务昇腾迁移通用指导

    来自:帮助中心

    查看更多 →

  • 如何获取证书?

    如何获取证书? 请按照以下途径获取: 设备侧Agent Lite的证书 应用 服务器 加载的平台证书 应用服务器订阅平台数据时,制作调测证书或购买证书。 父主题: 订阅推送(联通用户专用)

    来自:帮助中心

    查看更多 →

  • 在lite资源池上使用Snt9B完成分布式训练任务

    lite资源池上使用Snt9B完成分布式训练任务 场景描述 本案例介绍如何在Snt9B上进行分布式训练任务。lite资源池已经默认安装volcano调度器,训练任务默认使用volcano job形式下发lite池集群。训练测试用例使用NLP的bert模型,详细代码和指导可参考Bert。

    来自:帮助中心

    查看更多 →

  • 动态shape

    dynamic_dims=[1~4],[8],[16] 在执行convert_lite命令时,指定--configFile=config.ini即可自动编译指定的动态shape。 #shell converter_lite --modelFile=resnet50.onnx --fmk=ONNX

    来自:帮助中心

    查看更多 →

  • DevServer简介

    DevServer简介 ModelArts Lite DevServer提供不同型号的xPU 裸金属服务器 ,您可以通过弹性公网IP进行访问,在给定的操作系统镜像上可以自行安装加速卡相关的驱动和其他软件,使用SFS或OBS进行数据存储和读取相关的操作,满足算法工程师进行日常训练的需要。 父主题:

    来自:帮助中心

    查看更多 →

  • 常见问题

    常见问题 MindSpore Lite问题定位指南 模型转换报错如何查看日志和定位? 日志提示”Compile graph failed.” 日志提示“Custom op has no reg_op_name attr.” 父主题: 推理业务昇腾迁移通用指导

    来自:帮助中心

    查看更多 →

  • k8s Cluster简介

    Cluster简介 ModelArts Lite k8s Cluster面向k8s资源型用户,提供托管式k8s集群,并预装主流AI开发插件以及自研的加速插件,以云原生方式直接向用户提供AI Native的资源、任务等能力,用户可以直接操作资源池中的节点和k8s集群。 图1 资源池架构图

    来自:帮助中心

    查看更多 →

  • 如何获取证书?

    如何获取证书? 请按照以下途径获取: 设备侧Agent Lite的证书 应用服务器加载的平台证书 应用服务器订阅平台数据时,制作调测证书或购买证书。 父主题: 应用集成(联通用户专用)

    来自:帮助中心

    查看更多 →

  • 使用限制

    对象 类别/描述 限制 设备 集成Agent Lite的设备(MQTT) 不支持 原生MQTT协议设备 支持,设备需要开发设备引导接口,具备设备发放能力。 集成LiteOS的设备(LwM2M) 支持 证书 数字证书保证系统内各服务及系统与外部通信的安全性,防止通信数据在传输过程被篡改造成安全风险。

    来自:帮助中心

    查看更多 →

  • 昇腾迁移快速入门案例

    ipynb”案例后运行即可。 ResNet50模型迁移到Ascend上进行推理:通过使用MindSpore Lite对ResNet50模型在Ascend执行推理为例,向大家介绍MindSpore Lite的基础功能和用法。 图6 ResNet50模型迁移到Ascend上进行推理 Stable D

    来自:帮助中心

    查看更多 →

  • 场景介绍

    型运行环境是ModelArts Lite的DevServer。 本方案目前配套的是AscendCloud-3rdLLM系列版本,仅适用于部分企业客户,完成本方案的部署,需要先联系您所在企业的华为方技术支持。 操作流程 图1 操作流程图 表1 操作任务流程说明 阶段 任务 说明 准备工作

    来自:帮助中心

    查看更多 →

  • 性能调优

    以通过AOE工具进行自助性能调优,进一步可以通过profiling工具对于性能瓶颈进行分析,并针对性的做一些调优操作。 单模型性能测试工具Mindspore lite benchmark 单模型性能调优AOE 父主题: AIGC推理业务昇腾迁移指导

    来自:帮助中心

    查看更多 →

  • 性能调优

    AI编译器中,常量折叠是将计算图中预先可以确定输出值的节点替换成常量,并对计算图进行一些结构简化的操作,例如ADDN操作,以及在推理过程中的batch normalization操作等。 以BN折叠为例,如下表示折叠后获得的性能收益。 图1 BN折叠下前向运算性能收益 AOE性能自动调优

    来自:帮助中心

    查看更多 →

  • os.system("command &")执行日志未采集,应如何处理?

    os.system("command &")执行日志未采集,应如何处理? 不建议使用os.system("command &")后台运行命令,其产生的输出函数不进行采集。如果要得到后台运行命令的输出,建议使用subprocess.Popen的方式获取其输出。 父主题: 通用问题

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了