
pytorch提供了强大的分布式训练能力,允许模型在多个计算节点上并行训练,从而加速大型模型的收敛。其中,gloo是pytorch内置的一种后端,常用于cpu训练或网络带宽要求不那么极致的场景。它通过tcp/ip协议进行节点间的通信。为了启动一个分布式进程组,需要配置一系列环境变量,包括master_addr(主节点ip)、master_port(主节点监听端口)、rank(当前节点在进程组中的序号)和world_size(进程组总大小)。
典型的分布式训练初始化流程如下:
以下是在两个EC2实例上设置环境变量的示例:
节点0 (Master)
#!/bin/bash export MASTER_PORT=23456 export MASTER_ADDR=<私有IP地址,例如:172.31.0.10> # 节点0的私有IP export WORLD_SIZE=2 export GLOO_SOCKET_IFNAME=enX0 # 根据实际网卡名称调整 export RANK=0
节点1 (Worker)
#!/bin/bash export MASTER_PORT=23456 export MASTER_ADDR=<私有IP地址,例如:172.31.0.10> # 仍是节点0的私有IP export WORLD_SIZE=2 export GLOO_SOCKET_IFNAME=enX0 # 根据实际网卡名称调整 export RANK=1
在每个节点上激活Python环境并执行:
import torch.distributed
torch.distributed.init_process_group('gloo')当PyTorch分布式训练在跨EC2实例使用Gloo后端时,一个常见的问题是init_process_group调用后,进程会长时间挂起,最终可能在主节点上抛出RuntimeError: Gloo connectFullMesh failed with [...] no error的错误,而从节点则持续无响应。即使通过nc或telnet测试发现MASTER_PORT端口是开放且可达的,问题依然存在。
这个错误的根本原因在于,Gloo的connectFullMesh操作不仅仅依赖于最初的MASTER_PORT进行协调。一旦初始握手完成,Gloo后端为了实现高效的通信,会尝试在所有进程之间建立全连接(full mesh)的网络拓扑。这意味着每个节点都可能需要直接连接到其他所有节点上的任意端口,而不仅仅是预设的MASTER_PORT。如果EC2实例的安全组(Security Group)或防火墙只开放了MASTER_PORT,那么后续的随机端口或特定范围端口的连接尝试就会被阻止,导致通信失败,进而表现为进程挂起和错误。
Gloo connectFullMesh failed with [...] no error中的“no error”可能具有误导性,它通常意味着底层TCP连接尝试失败,但操作系统层面没有返回具体的错误码(例如,不是“连接被拒绝”而是“连接超时”或“路由不可达”),这往往是防火墙或安全组规则阻止了连接的体现。
解决此问题的关键在于确保所有参与分布式训练的EC2实例之间能够进行无限制的内部通信。最直接有效的方法是调整EC2实例所关联的安全组规则,允许这些实例之间开放所有TCP、UDP流量。
具体操作步骤:
创建或选择一个安全组: 确保所有参与分布式训练的EC2实例都关联到同一个安全组。如果它们已经关联到不同的安全组,可以创建一个新的安全组并将所有实例都关联到它,或者修改它们各自的安全组。
配置入站规则(Inbound Rules):
这将允许该安全组内的所有实例接收来自该安全组内其他实例的所有流量。
配置出站规则(Outbound Rules): 默认情况下,EC2安全组的出站规则通常是允许所有流量的。如果被修改过,请确保出站规则允许到该安全组自身的“所有流量”。
示例安全组配置(入站规则):
| 类型 | 协议 | 端口范围 | 来源 | 描述 |
|---|---|---|---|---|
| All TCP | TCP | 0 - 65535 | sg-xxxxxxxxxxxxxxxxx | Allow all TCP within SG |
| All UDP | UDP | 0 - 65535 | sg-xxxxxxxxxxxxxxxxx | Allow all UDP within SG |
重要提示:
在调整安全组后,重新运行PyTorch分布式训练代码。如果配置正确,init_process_group应该能够顺利完成。
其他故障排除建议:
通过正确配置EC2实例间的网络安全组,允许Gloo后端进行必要的全连接通信,可以有效解决PyTorch分布式训练在多节点环境下遇到的连接挂起问题,确保训练任务的顺利进行。
以上就是PyTorch 分布式训练在EC2多节点Gloo后端连接挂起问题的解决的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号