elu

paddle.fluid.layers. elu ( x, alpha=1.0, name=None ) [源代码]

ELU激活层(ELU Activation Operator)

根据 https://arxiv.org/abs/1511.07289 对输入Tensor中每个元素应用以下计算。

\[\begin{split}\\out=max(0,x)+min(0,α∗(e^{x}−1))\\\end{split}\]
参数:
  • x (Variable) - 该OP的输入为多维Tensor。数据类型为float32或float64。

  • alpha (float, 可选) - ELU的alpha值,默认值为1.0。

  • name (str, 可选) - 具体用法请参见 Name,一般无需设置,默认值为None。

返回: 输出为Tensor,与 x 维度相同、数据类型相同。

返回类型: Variable

代码示例

import paddle.fluid as fluid
import numpy as np

input_elu = np.array([[-1,6],[1,15.6]])
with fluid.dygraph.guard():
    x = fluid.dygraph.to_variable(input_elu)
    y = fluid.layers.elu(x, alpha=0.2)
    print(y.numpy())
    # [[-0.12642411  6.        ]
    # [ 1.          15.6       ]]