虚拟私有云 VPC

虚拟私有云(Virtual Private Cloud)是用户在华为云上申请的隔离的、私密的虚拟网络环境。用户可以自由配置VPC内的IP地址段、子网、安全组等子服务,也可以申请弹性带宽和弹性IP搭建业务系统

 

    深度学习训练网络过程 更多内容
  • 面向AI场景使用OBS+SFS Turbo的存储加速方案概述

    Turbo高性能,加速训练过程 训练数据集高速读取,避免GPU/NPU因存储I/O等待产生空闲,提升GPU/NPU利用率。 大模型TB级Checkpoint文件秒级保存和加载,减少训练任务中断时间。 3 数据导入导出异步化,不占用训练任务时长,无需部署外部迁移工具 训练任务开始前将数据从OBS导入到SFS

    来自:帮助中心

    查看更多 →

  • 附录:微调训练常见问题

    expandable_segments:True 将yaml文件中的per_device_train_batch_size调小,重新训练如未解决则执行下一步。 替换深度学习训练加速的工具或增加zero等级,可参考模型NPU卡数、梯度累积值取值表,如原使用Accelerator可替换为Deeps

    来自:帮助中心

    查看更多 →

  • 面向AI场景使用OBS+SFS Turbo的存储加速方案概述

    Turbo高性能,加速训练过程 训练数据集高速读取,避免GPU/NPU因存储I/O等待产生空闲,提升GPU/NPU利用率。 大模型TB级Checkpoint文件秒级保存和加载,减少训练任务中断时间。 3 数据导入导出异步化,不占用训练任务时长,无需部署外部迁移工具 训练任务开始前将数据从OBS导入到SFS

    来自:帮助中心

    查看更多 →

  • 创建NLP大模型训练任务

    decay)的机制,可以有效地防止过拟合(overfitting)的问题。 学习率衰减比率 学习率衰减后的比率,用于控制训练过程学习率的下降幅度。经过衰减后,学习率的最低值由初始学习率和衰减比率决定。其计算公式为:最低学习率 = 初始学习率 * 学习率衰减比率。也就是说,学习率在每次衰减后不会低于这个计算出来的最低值。

    来自:帮助中心

    查看更多 →

  • yaml配置文件参数配置说明

    源库,用于加速深度学习训练。通过使用DeepSpeed,可以实现如混合精度训练、ZeRO内存优化等高级特性,以提高训练效率和性能 stage sft 表示训练类型。可选择值:[pt、sf、rm、ppo],pt代表预训练,sft代表指令监督微调,rm代表奖励模型训练,ppo代表PPO训练。

    来自:帮助中心

    查看更多 →

  • 如何调整训练参数,使盘古大模型效果最优

    较小的学习率,反之可以使用较大的学习率。 如果您没有专业的调优经验,可以优先使用平台提供的默认值,再结合训练过程中模型的收敛情况动态调整。 学习率衰减比率(learning_rate_decay_ratio) 0~1 0.01~0.1 学习率衰减比率用于设置训练过程中的学习率衰减

    来自:帮助中心

    查看更多 →

  • 如何对盘古大模型的安全性展开评估和防护

    盘古大模型的安全性主要从以下方面考虑: 数据安全和隐私保护:大模型涉及大量训练数据,这些数据是重要资产。为确保数据安全,需在数据和模型训练的全生命周期内,包括数据提取、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加密、审计和数据主权保护等机制。在训练和推理过程中,通过数据脱敏、隐私计算等技术手段

    来自:帮助中心

    查看更多 →

  • 增量模型训练

    增量模型训练 什么是增量训练 增量训练(Incremental Learning)是机器学习领域中的一种训练方法,它允许人工智能(AI)模型在已经学习了一定知识的基础上,增加新的训练数据到当前训练流程中,扩展当前模型的知识和能力,而不需要从头开始。 增量训练不需要一次性存储所有的

    来自:帮助中心

    查看更多 →

  • GPU加速型

    TOPS 机器学习深度学习训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。 支持开启/关闭超线程功能,详细内容请参见开启/关闭超线程。 推理加速型 Pi1 NVIDIA P4(GPU直通) 2560 5.5TFLOPS 单精度浮点计算 机器学习深度学习训练推理、科

    来自:帮助中心

    查看更多 →

  • 训练过程中无法找到so文件

    编译生成so文件的cuda版本与训练作业的cuda版本不一致。 处理方法 编译环境的cuda版本与训练环境不一致,训练作业运行就会报错。例如:使用cuda版本为10的开发环境tf-1.13中编译生成的so包,在cuda版本为9.0训练环境中tf-1.12训练会报该错。 编译环境和训练环境的cuda版本不一致时,可参考如下处理方法:

    来自:帮助中心

    查看更多 →

  • 指令监督微调训练任务

    指定每个设备的训练批次大小 gradient_accumulation_steps 8 指定梯度累积的步数,这可以增加批次大小而不增加内存消耗。可根据自己要求适配 num_train_epochs 5 表示训练轮次,根据实际需要修改。一个Epoch是将所有训练样本训练一次的过程。可根据自己要求适配

    来自:帮助中心

    查看更多 →

  • ModelArts

    功能总览 全部 自动学习 Workflow 开发工具 算法管理 训练管理 AI应用管理 部署上线 镜像管理 资源池 AI Gallery ModelArts SDK 昇腾生态 自动学习 自动学习是帮助人们实现AI应用的低门槛、高灵活、零代码的定制化模型开发工具。自动学习功能根据标注数据

    来自:帮助中心

    查看更多 →

  • 创建ModelArts数据增强任务

    batch_size 1 训练相关参数:批量训练样本个数。 max_epoch 100 训练相关参数:训练遍历数据集次数。 g_learning_rate 0.0001 训练相关参数:生成器训练学习率。 d_learning_rate 0.0001 训练相关参数:判别器训练学习率。 log_frequency

    来自:帮助中心

    查看更多 →

  • 迁移学习

    迁移学习 如果当前数据集的特征数据不够理想,而此数据集的数据类别和一份理想的数据集部分重合或者相差不大的时候,可以使用特征迁移功能,将理想数据集的特征数据迁移到当前数据集中。 进行特征迁移前,请先完成如下操作: 将源数据集和目标数据集导入系统,详细操作请参见数据集。 创建迁移数据

    来自:帮助中心

    查看更多 →

  • 学习项目

    可见范围内的学员在学员端可看见此项目并可以进行学习学习数据可在学习项目列表【数据】-【自学记录】查看。 学习设置: 防作弊设置项可以单个项目进行单独设置,不再根据平台统一设置进行控制。 文档学习按浏览时长计算,时长最大计为:每页浏览时长*文档页数;文档学习按浏览页数计算,不计入学习时长。 更多设置:添加协同人

    来自:帮助中心

    查看更多 →

  • 学习目标

    学习目标 掌握座席侧的前端页面开发设计。 父主题: 开发指南

    来自:帮助中心

    查看更多 →

  • ModelArts最佳实践案例列表

    训练、SFT全参微调训练、LoRA微调训练 介绍主流的开源大模型Llama系列、Qwen系列、Yi系列、Baichuan系列、ChatGLM系列等基于ModelArts Standard的训练过程训练使用PyTorch框架和昇腾NPU计算资源。 训练后的模型可用于推理部署,搭建大模型问答助手。

    来自:帮助中心

    查看更多 →

  • 华为企业人工智能高级开发者培训

    培训内容 培训内容 说明 神经网络基础 介绍深度学习预备知识,人工神经网络深度前馈网络,反向传播和神经网络架构设计 图像处理理论和应用 介绍计算机视觉概览,数字图像处理基础,图像预处理技术,图像处理基本任务,特征提取和传统图像处理算法,深度学习和卷积神经网络相关知识 语音处理理论和应用

    来自:帮助中心

    查看更多 →

  • 附录:训练常见问题

    expandable_segments:True 将yaml文件中的per_device_train_batch_size调小,重新训练如未解决则执行下一步。 替换深度学习训练加速的工具或增加zero等级,可参考模型NPU卡数、梯度累积值取值表,如原使用Accelerator可替换为Deeps

    来自:帮助中心

    查看更多 →

  • 附录:训练常见问题

    expandable_segments:True 将yaml文件中的per_device_train_batch_size调小,重新训练如未解决则执行下一步。 替换深度学习训练加速的工具或增加zero等级,可参考模型NPU卡数、梯度累积值取值表,如原使用Accelerator可替换为Deeps

    来自:帮助中心

    查看更多 →

  • 创建模型微调任务

    模型微调是指调整大型语言模型的参数以适应特定任务的过程,适用于需要个性化定制模型或者在特定任务上追求更高性能表现的场景。这是通过在与任务相关的微调数据集上训练模型来实现的,所需的微调量取决于任务的复杂性和数据集的大小。在深度学习中,微调用于改进预训练模型的性能。 支持将平台资产中心预置的部

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了