relu

paddle.fluid.layers. relu ( x, name=None ) [源代码]

ReLU(Rectified Linear Unit)激活函数

\[Out=max(0,x)\]
参数:
  • x (Variable) - 输入的多维 Tensor ,数据类型为:float32、float64。

  • name (str,可选) – 具体用法请参见 Name ,一般无需设置,默认值为None。

返回: 与 x 维度相同、数据类型相同的 Tensor

返回类型: Variable

代码示例:

import paddle.fluid as fluid
import numpy as np

in1 = np.array([[-1,0],[1,2.6]])
with fluid.dygraph.guard():
    x1 = fluid.dygraph.to_variable(in1)
    out1 = fluid.layers.relu(x1)
    print(out1.numpy())
    # [[0.  0. ]
    #  [1.  2.6]]