[ 仅 paddle 参数更多 ]torch.optim.Optimizer

torch.optim.Optimizer

torch.optim.Optimizer(params,
                    defaults)

paddle.optimizer.Optimizer

paddle.optimizer.Optimizer(learning_rate=0.001,
                        epsilon=1e-08,
                        parameters=None,
                        weight_decay=None,
                        grad_clip=None,
                        name=None)

PyTorch 相比 Paddle 支持更多其他参数,其 defaults 可以支持各种参数,但一般只会转写 API 名称,不会转写参数。

参数映射

PyTorch PaddlePaddle 备注
params parameters 表示指定优化器需要优化的参数,仅参数名不一致。
defaults - 表示含有优化选项和其默认值的字典,Paddle 无此参数。
- learning_rate 学习率,用于参数更新的计算。PyTorch 无此参数,但 defaults 可含有 lr 与之对应。
- weight_decay 表示权重衰减系数。 PyTorch 无此参数,但 defaults 可含有 weight_decay 与之对应。
- epsilon 保持数值稳定性的短浮点类型值。PyTorch 无此参数,但 defaults 可含有 eps 与之对应。
- grad_clip 梯度裁剪的策略。 PyTorch 无此参数,Paddle 保持默认即可。