[torch 参数更多]torch.distributed.all_to_all¶
torch.distributed.all_to_all¶
torch.distributed.all_to_all(output_tensor_list, input_tensor_list, group=None, async_op=False)
paddle.distributed.alltoall¶
paddle.distributed.alltoall(in_tensor_list, out_tensor_list, group=None, use_calc_stream=True)
其中 PyTorch 相比 Paddle 支持更多其他参数,具体如下:
参数映射¶
PyTorch | PaddlePaddle | 备注 |
---|---|---|
output_tensor_list | out_tensor_list | 包含所有输出 Tensors 的一个列表,仅参数名不一致。 |
input_tensor_list | in_tensor_list | 包含所有输入 Tensors 的一个列表,仅参数名不一致。 |
group | group | new_group 返回的 Group 实例,或者设置为 None 表示默认地全局组。 |
async_op | - | 是否异步操作,Paddle 无此参数,暂无转写方式。 |
- | use_calc_stream | 标识使用计算流还是通信流,PyTorch 无此参数,Paddle 保持默认即可。 |