LayerNormalization
classkeras.layers.LayerNormalization(
axis=-1,
epsilon=0.001,
center=True,
scale=True,
rms_scaling=False,
beta_initializer="zeros",
gamma_initializer="ones",
beta_regularizer=None,
gamma_regularizer=None,
beta_constraint=None,
gamma_constraint=None,
**kwargs
)
层规范化层(Ba 等,2016).
独立地规范化前一层在每个给定样本中的激活,而不是像批量规范化那样跨批次进行规范化.即应用一种变换,使每个样本中的平均激活接近0,激活标准差接近1.
如果启用了 scale
或 center
,该层将通过广播与可训练变量 gamma
相乘来缩放规范化输出,并通过广播与可训练变量 beta
相加来中心化输出.gamma
将默认为一个全1的张量,beta
将默认为一个全0的张量,因此在训练开始之前,中心化和缩放都是无操作.
因此,启用了缩放和中心化的情况下,规范化方程如下:
设小批量的中间激活为 inputs
.
对于 inputs
中的每个样本 x_i
和 k
个特征,我们计算样本的均值和方差:
mean_i = sum(x_i[j] for j in range(k)) / k
var_i = sum((x_i[j] - mean_i) ** 2 for j in range(k)) / k
然后计算一个规范化的 x_i_normalized
,包括一个小的因子 epsilon
以确保数值稳定性.
x_i_normalized = (x_i - mean_i) / sqrt(var_i + epsilon)
最后,x_i_normalized
通过 gamma
和 beta
进行线性变换,这两个参数是学习得到的:
output_i = x_i_normalized * gamma + beta
gamma
和 beta
将跨越 inputs
中在 axis
指定的轴,这部分输入的形状必须完全定义.
例如:
>>> layer = keras.layers.LayerNormalization(axis=[1, 2, 3])
>>> layer.build([5, 20, 30, 40])
>>> print(layer.beta.shape)
(20, 30, 40)
>>> print(layer.gamma.shape)
(20, 30, 40)
注意,其他层规范化实现可能会选择在不同于被规范化轴的一组轴上定义 gamma
和 beta
.例如,组规范化(Wu 等,2018),当组大小为1时,对应于一个跨高度、宽度和通道进行规范化的层规范化,并且 gamma
和 beta
仅跨越通道维度.因此,这个层规范化实现不会匹配组大小设置为1的组规范化层.
参数:
axis: 整数或列表/元组.要进行规范化的轴或轴.通常,这是特征轴/轴.未指定的轴通常是批次轴/轴.-1
是输入的最后一个维度.默认为 -1
.
epsilon: 添加到方差中的小浮点数,以避免除以零.默认为 1e-3.
center: 如果为 True,将 beta
添加到规范化张量.如果为 False,则忽略 beta
.默认为 True
.
scale: 如果为 True,乘以 gamma
.如果为 False,则不使用 gamma
.当下一层是线性层(例如 nn.relu
)时,可以禁用此选项,因为下一层会进行缩放.默认为 True
.
rms_scaling: 如果为 True,忽略 center
和 scale
,并将输入乘以 gamma
和所有输入平方的逆平方根.这是一种近似且更快的处理方法,避免了计算输入的均值.
beta_initializer: beta 权重的初始化器.默认为 zeros.
gamma_initializer: gamma 权重的初始化器.默认为 ones.
beta_regularizer: beta 权重的可选正则化器.默认为 None.
gamma_regularizer: gamma 权重的可选正则化器.默认为 None.
beta_constraint: beta 权重的可选约束.默认为 None.
gamma_constraint: gamma 权重的可选约束.默认为 None.
**kwargs: 基础层的键值对参数(例如 name
和 dtype
).
参考文献: