激活函数

System Message: WARNING/2 (/FluidDoc/docs/api_guides/low_level/layers/activations.rst, line 3)

Title overline too short.

####
激活函数
####

激活函数将非线性的特性引入到神经网络当中。

PaddlePaddle Fluid 对大部分的激活函数进行了支持,其中有:

relu, cn_api_fluid_layers_tanh, sigmoid, elu, relu6, cn_api_fluid_layers_pow, stanh, hard_sigmoid, swish, prelu, brelu, leaky_relu, soft_relu, thresholded_relu, maxout, cn_api_fluid_layers_logsigmoid, hard_shrink, cn_api_fluid_layers_softsign, cn_api_fluid_layers_softplus, cn_api_fluid_layers_tanh_shrink, softshrink, exp

Fluid提供了两种使用激活函数的方式:

  • 如果一个层的接口提供了 act 变量(默认值为None),我们可以通过该变量指定该层的激活函数类型。该方式支持常见的激活函数: relu, tanh, sigmoid, identity

conv2d = fluid.layers.conv2d(input=data, num_filters=2, filter_size=3, act="relu")
  • Fluid为每个Activation提供了接口,我们可以显式的对它们进行调用。

conv2d = fluid.layers.conv2d(input=data, num_filters=2, filter_size=3)
relu1 = fluid.layers.relu(conv2d)