gelu

paddle.nn.functional. gelu ( x, approximate=False, name=None ) [源代码]

gelu激活层(GELU Activation Operator)

逐元素计算 gelu激活函数。更多细节请参考 Gaussian Error Linear Units

如果使用近似计算:

\[gelu(x) = 0.5 * x * (1 + tanh(\sqrt{\frac{2}{\pi}} * (x + 0.044715x^{3})))\]

如果不使用近似计算:

\[gelu(x) = 0.5 * x * (1 + erf(\frac{x}{\sqrt{2}}))\]

其中,\(x\) 为输入的 Tensor

参数

  • name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 Name

返回

Tensor ,数据类型和形状同 x 一致。

代码示例

import paddle
import paddle.nn.functional as F

x = paddle.to_tensor([[-1, 0.5], [1, 1.5]])
out1 = F.gelu(x)
# [[-0.15865529,  0.34573123],
#  [ 0.84134471,  1.39978933]]
out2 = F.gelu(x, True)
# [[-0.15880799,  0.34571400],
#  [ 0.84119201,  1.39957154]]