torch.distributed.init_process_group¶
torch.distributed.init_process_group¶
torch.distributed.init_process_group(backend='nccl', init_method=None, timeout=datetime.timedelta(seconds=1800), world_size=-1, rank=-1, store=None, group_name='', pg_options=None)
paddle.distributed.init_parallel_env¶
paddle.distributed.init_parallel_env()
两者功能一致,torch 参数更多,具体差异如下:
参数差异¶
| PyTorch | PaddlePaddle | 备注 | | ————- | ———— | —————————————————— | | backend | - | backend 配置,paddle 无此参数 | | init_method | - | 初始化方法,paddle 无此参数 | | timeout | - | 超时配置,paddle 无此参数 | | world_size | - | 进程数量,paddle 无此参数 | | rank | - | 当前进程所在的 gpu,paddle 无此参数 | | store | - | 信息交换的配置,paddle 无此参数 | | group_name | - | 组名,paddle 无此参数 | | pg_options | - | 进程组配置,paddle 无此参数 |