[torch 参数更多]torch.nn.Transformer

torch.nn.Transformer

torch.nn.Transformer(d_model=512, nhead=8, num_encoder_layers=6, num_decoder_layers=6, dim_feedforward=2048, dropout=0.1, activation=<function relu>, custom_encoder=None, custom_decoder=None, layer_norm_eps=1e-05, batch_first=False, norm_first=False, device=None, dtype=None)

paddle.nn.Transformer

paddle.nn.Transformer(d_model=512, nhead=8, num_encoder_layers=6, num_decoder_layers=6, dim_feedforward=2048, dropout=0.1, activation='relu', attn_dropout=None, act_dropout=None, normalize_before=False, weight_attr=None, bias_attr=None, custom_encoder=None, custom_decoder=None)

Pytorch 相比 Paddle 支持更多其他参数,具体如下:

参数映射

PyTorch PaddlePaddle 备注
d_model d_model 编码器和解码器的输入输出的维度。
nhead nhead 多头注意力机制的 Head 数量。
num_encoder_layers num_encoder_layers 编码器中 TransformerEncoderLayer 的层数。
num_decoder_layers num_decoder_layers 解码器中 TransformerDecoderLayer 的层数。
dim_feedforward dim_feedforward 前馈神经网络中隐藏层的大小。
dropout dropout 对编码器和解码器中每个子层的输出进行处理的 dropout 值。
activation activation 前馈神经网络的激活函数。
custom_encoder custom_encoder 若提供该参数,则将 custom_encoder 作为编码器。
custom_decoder custom_decoder 若提供该参数,则将 custom_decoder 作为解码器。
layer_norm_eps - 层 normalization 组件的 eps 值,Paddle 无此参数,暂无转写方式。
batch_first - 表示输入数据的第 0 维是否代表 batch_size,Paddle 无此参数,暂无转写方式。
norm_first normalize_before 是否 LayerNorms 操作在 attention 和 feedforward 前,仅参数名不一致。
device - Tensor 的设备,Paddle 无此参数,需要转写。
dtype - Tensor 的数据类型,Paddle 无此参数,需要转写。
- attn_dropout 多头自注意力机制中对注意力目标的随机失活率,PyTorch 无此参数,Paddle 保持默认即可。
- act_dropout 前馈神经网络的激活函数后的 dropout,PyTorch 无此参数,Paddle 保持默认即可。
- weight_attr 指定权重参数属性的对象,PyTorch 无此参数,Paddle 保持默认即可。
- bias_attr 指定偏置参数属性的对象,PyTorch 无此参数,Paddle 保持默认即可。

转写示例

device:Tensor 的设备

# Pytorch 写法
m = torch.nn.Transformer(device=torch.device('cpu'))
y = m(x)

# Paddle 写法
m = paddle.nn.Transformer()
y = m(x).cpu()

dtype:Tensor 的数据类型

# Pytorch 写法
m = torch.nn.Transformer(dtype=torch.float32)
y = m(x)

# Paddle 写法
m = paddle.nn.Transformer()
y = m(x).astype(paddle.float32)