更新时间:2022-03-31 GMT+08:00
多机多卡数据并行-DistributedDataParallel(DDP)
本章节介绍基于Pytorch引擎的多机多卡数据并行训练。
训练流程简述
相比于DP,DDP能够启动多进程进行运算,从而大幅度提升计算资源的利用率。可以基于torch.distributed实现真正的分布式计算,具体的原理此处不再赘述。大致的流程如下:
- 初始化进程组。
- 创建分布式并行模型,每个进程都会有相同的模型和参数。
- 创建数据分发Sampler,使每个进程加载一个min Batch中不同部分的数据
- 网络中相邻参数分桶。
- 每个进程前向传播并各自计算梯度。
- 一个桶中的参数都得到梯度后会马上进行通讯,进行梯度平均
- 各GPU更新模型参数
具体流程图如下:
图1 多机多卡数据并行训练


DistributedDataParallel进行多机多卡训练的优缺点
- 通信更快:相比于DP,通信速度更快
- 负载相对均衡:相比于DP,GPU负载相对更均衡
- 运行速度快:因为通信时间更短,效率更高,能更快速的完成训练任务
代码改造点
- 引入多进程启动机制:初始化进程
- 引入几个变量:tcp协议,rank 进程序号,worldsize 开启的进程数量
- 分发数据:DataLoader中多了一个Sampler参数,避免不同进程数据重复
- 模型分发:DistributedDataParallel(model)
- 模型保存:在序号为0的进程下保存模型
import torch class Net(torch.nn.Module): pass model = Net().cuda() ### DataParallel Begin ### model = torch.nn.DataParallel(Net().cuda()) ### DataParallel End ###
父主题: 分布式训练
