文档首页> AI开发平台ModelArts> 故障排除> 训练作业> GPU相关问题> 日志提示“RuntimeError: connect() timed out”
更新时间:2024-04-30 GMT+08:00

日志提示“RuntimeError: connect() timed out”

问题现象

使用pytorch进行分布式训练时,出现如下错误:

图1 错误日志

原因分析

出现该问题的可能原因如下:

如果在此之前是有进行数据拷贝的,每个节点拷贝的速度不是同一个时间完成的,然后有的节点没有拷贝完,其他节点进行torch.distributed.init_process_group()导致超时。

处理方法

如果是多个节点拷贝不同步,并且没有barrier的话导致的超时,可以在拷贝数据之前,先进行torch.distributed.init_process_group(),然后再根据local_rank()==0去拷贝数据,之后再调用torch.distributed.barrier()等待所有rank完成拷贝。具体可参考如下代码:
import moxing as mox
import torch

torch.distributed.init_process_group()
if local_rank == 0: 
    mox.file.copy_parallel(src,dst) 

torch.distributed.barrier()

建议与总结

在创建训练作业前,推荐您先使用ModelArts开发环境调试训练代码,避免代码迁移过程中的错误。