fused_matmul_bias

paddle.incubate.nn.functional. fused_matmul_bias ( x, y, bias=None, transpose_x=False, transpose_y=False, name=None ) [源代码]

应用两个张量的矩阵乘法,然后如果提供了偏置,进行偏置加法。

此方法要求 CUDA 版本不低于 11.6。

参数

  • x (Tensor) - 第一个输入 Tensor,被乘 Tensor

  • y (Tensor) - 第二个输入 Tensor,被乘 Tensor。其秩必须为 2。

  • bias (Tensor,可选) - 输入的偏置。如果为 None,则不执行偏置加法。否则,偏置将被加到矩阵乘法结果上。默认:None。

  • transpose_x (bool,可选) - 是否在乘积运算前转置 \(x\)。默认:False。

  • transpose_y (bool,可选) - 是否在乘积运算前转置 \(y\)。默认:False。

  • name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。

返回

输出 Tensor

代码示例

>>> import paddle
>>> from paddle.incubate.nn.functional import fused_matmul_bias

>>> paddle.set_device('gpu')
>>> x = paddle.randn([3, 5])
>>> y = paddle.randn([4, 5])
>>> bias = paddle.randn([5])
>>> out = fused_matmul_bias(x, y, bias)
>>> print(out.shape)
[3, 5]