PReLU
classkeras.layers.PReLU(
alpha_initializer="Zeros",
alpha_regularizer=None,
alpha_constraint=None,
shared_axes=None,
**kwargs
)
参数化修正线性单元激活层.
公式:
f(x) = alpha * x for x < 0
f(x) = x for x >= 0
其中 alpha
是一个与 x 形状相同的可学习数组.
参数:
alpha_initializer: 权重的初始化函数.
alpha_regularizer: 权重的正则化器.
alpha_constraint: 权重的约束.
shared_axes: 沿哪些轴共享激活函数的可学习参数.例如,如果输入特征图来自输出形状为
(batch, height, width, channels)
的 2D 卷积,并且您希望跨空间共享参数,
使得每个过滤器只有一组参数,请设置 shared_axes=[1, 2]
.
**kwargs: 基础层的键字参数,例如 name
和 dtype
.