华为云 APP

您的云计算服务助手——让您安全、实时、高效、便捷的掌控云端资源。

立即下载
 
 
 

    深度学习具体应用 更多内容
  • 弹性伸缩概述

    弹性伸缩是根据业务需求和策略,经济地自动调整弹性计算资源的管理服务。 背景介绍 随着Kubernetes已经成为云原生应用编排、管理的事实标准,越来越多的应用选择向Kubernetes迁移,用户也越来越关心在Kubernetes上应用如何快速扩容面对业务高峰,以及如何在业务低谷时快速缩容节约资源与成本。 在Kube

    来自:帮助中心

    查看更多 →

  • PERF03-02 选择合适规格的虚拟机和容器节点

    关键策略 服务器 资源就类似一块块资源拼成的木桶,其最多能承载的业务需求取决于哪一块资源最先达到瓶颈。 不同应用对资源需求不同,例如: 功耗密集型业务(如高性能计算、人工智能、深度学习等场景)主要就是消耗计算维度的容量。 内存密集型业务(如大数据处理、图像/视频处理、游戏开发、数据库等场景)主要消耗内存和存储维度的容量。

    来自:帮助中心

    查看更多 →

  • ModelArts中常用概念

    、PyTorch、MXNet、MindSpore等深度学习引擎之上,使得这些计算引擎分布式性能更高,同时易用性更好。MoXing包含很多组件,其中MoXing Framework模块是一个基础公共组件,可用于访问OBS服务,和具体的AI引擎解耦,在ModelArts支持的所有AI

    来自:帮助中心

    查看更多 →

  • 创建联邦学习工程

    创建联邦学习工程 创建工程 编辑代码(简易编辑器) 编辑代码(WebIDE) 模型训练 父主题: 模型训练

    来自:帮助中心

    查看更多 →

  • Standard自动学习

    Standard自动学习 使用ModelArts Standard自动学习实现口罩检测 使用ModelArts Standard自动学习实现垃圾分类

    来自:帮助中心

    查看更多 →

  • 未来执行的具体时间列表

    未来执行的具体时间列表 功能介绍 未来执行的具体时间列表。 调试 您可以在 API Explorer 中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/schedul

    来自:帮助中心

    查看更多 →

  • 未来执行的具体时间列表

    未来执行的具体时间列表 功能介绍 未来执行的具体时间列表。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v1/{project_id}/schedul

    来自:帮助中心

    查看更多 →

  • 云数据迁移 CDM

    CCE是否和深度学习服务可以内网通信? CCE是否和深度学习服务可以内网通信? CCE是否和深度学习服务可以内网通信? 更多 远程登录 应用容器化改造介绍 应用容器化改造流程 步骤1:对应用进行分析 步骤2:准备应用运行环境 步骤2:准备应用运行环境 步骤2:准备应用运行环境 更多

    来自:帮助中心

    查看更多 →

  • 什么是OptVerse

    AI求解器为核心引擎,结合机器学习深度学习技术,为企业提供生产计划与排程、切割优化、路径优化、库存优化等一系列有竞争力的行业解决方案。 使用要求 OptVerse以开放API(Application Programming Interface,应用程序编程接口)的方式提供给用户

    来自:帮助中心

    查看更多 →

  • GPU加速型

    TOPS 机器学习深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 推理加速型 Pi1 NVIDIA P4(GPU直通) 2560 5.5TFLOPS 单精度浮点计算 机器学习深度学习、训练推理、

    来自:帮助中心

    查看更多 →

  • 产品优势

    产品优势 基因容器基于Kubernetes智能化基因计算任务调度和Spark等加速服务,为您提供低成本高性能的基因测序解决方案。支持对接深度学习框架,方便您深度解读报告。 秒级并发 基因容器利用容器技术的秒级并发能力,可将WGS从30小时缩短至5小时以内,对比同类竞品,使用相同样本的情况下,资源利用率大幅提升。

    来自:帮助中心

    查看更多 →

  • 附录

    化基于容器的应用程序部署和管理,您可以在CCE中方便的创建Kubernetes集群、部署您的容器化应用,以及方便的管理和维护。 volcano插件:Volcano是一个基于Kubernetes的批处理平台,提供了机器学习深度学习、生物信息学、基因组学及其他大数据应用所需要而Kubernetes当前缺失的一系列特性。

    来自:帮助中心

    查看更多 →

  • 什么是自动学习?

    什么是自动学习? 自动学习功能可以根据标注的数据自动设计模型、自动调参、自动训练、自动压缩和部署模型,不需要代码编写和模型开发经验。 自动学习功能主要面向无编码能力的用户,其可以通过页面的标注操作,一站式训练、部署,完成AI模型构建。 父主题: 功能咨询

    来自:帮助中心

    查看更多 →

  • BF16和FP16说明

    有优势,能够避免在训练过程中数值的上溢或下溢,从而提供更好的稳定性和可靠性,在大模型训练和推理以及权重存储方面更受欢迎。 FP16:用于深度学习训练和推理过程中,可以加速计算并减少内存的占用,对模型准确性的影响在大多数情况下较小。与BF16相比在处理非常大或非常小的数值时遇到困难,导致数值的精度损失。

    来自:帮助中心

    查看更多 →

  • 基本概念

    基本概念 AI引擎 可支持用户进行机器学习深度学习、模型训练作业开发的框架,如Tensorflow、Spark MLlib、MXNet、PyTorch、华为自研AI框架MindSpore等。 数据集 某业务下具有相同数据格式的数据逻辑集合。 特征操作 特征操作主要是对数据集进行特征处理。

    来自:帮助中心

    查看更多 →

  • 什么是Fabric

    大的数据处理和机器学习/深度学习任务对分布式计算的问题,也为数据工程和机器学习工程提供统一的完整Workflow。Fabric Ray支持Ray-Data、Ray-Train、Ray-Serve模块,分别满足分布式数据预处理、分布式训练、分布式模型推理服务的应用场景。 在线推理

    来自:帮助中心

    查看更多 →

  • BF16和FP16说明

    有优势,能够避免在训练过程中数值的上溢或下溢,从而提供更好的稳定性和可靠性,在大模型训练和推理以及权重存储方面更受欢迎。 FP16:用于深度学习训练和推理过程中,可以加速计算并减少内存的占用,对模型准确性的影响在大多数情况下较小。与BF16相比在处理非常大或非常小的数值时遇到困难,导致数值的精度损失。

    来自:帮助中心

    查看更多 →

  • BF16和FP16说明

    有优势,能够避免在训练过程中数值的上溢或下溢,从而提供更好的稳定性和可靠性,在大模型训练和推理以及权重存储方面更受欢迎。 FP16:用于深度学习训练和推理过程中,可以加速计算并减少内存的占用,对模型准确性的影响在大多数情况下较小。与BF16相比在处理非常大或非常小的数值时遇到困难,导致数值的精度损失。

    来自:帮助中心

    查看更多 →

  • 功能介绍

    集成主流深度学习框架,包括PyTorch,TensorFlow,Jittor,PaddlePaddle等,内置经典网络结构并支持用户自定义上传网络,同时,针对遥感影像多尺度、多通道、多载荷、多语义等特征,内置遥感解译专用模型,支持用户进行预训练和解译应用。 图18 部分深度学习模型参数

    来自:帮助中心

    查看更多 →

  • 大模型开发基本流程介绍

    超参数调优:选择合适的学习率、批次大小等超参数,确保模型在训练过程中能够快速收敛并取得良好的性能。 开发阶段的关键是平衡模型的复杂度和计算资源,避免过拟合,同时保证模型能够在实际应用中提供准确的预测结果。 应用与部署:当大模型训练完成并通过验证后,进入应用阶段。主要包括以下几个方面:

    来自:帮助中心

    查看更多 →

  • 可信联邦学习作业

    可信联邦学习作业 概述 创建横向训练型作业 横向联邦训练作业对接MA 创建横向评估型作业 创建纵向联邦学习作业 执行作业 查看作业计算过程和作业报告 删除作业 安全沙箱机制

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了