GRU层

[source]

GRU class

keras.layers.GRU(
    units,
    activation="tanh",
    recurrent_activation="sigmoid",
    use_bias=True,
    kernel_initializer="glorot_uniform",
    recurrent_initializer="orthogonal",
    bias_initializer="zeros",
    kernel_regularizer=None,
    recurrent_regularizer=None,
    bias_regularizer=None,
    activity_regularizer=None,
    kernel_constraint=None,
    recurrent_constraint=None,
    bias_constraint=None,
    dropout=0.0,
    recurrent_dropout=0.0,
    seed=None,
    return_sequences=False,
    return_state=False,
    go_backwards=False,
    stateful=False,
    unroll=False,
    reset_after=True,
    use_cudnn="auto",
    **kwargs
)

门控循环单元 - Cho 等,2014.

基于可用的运行时硬件和约束,该层将选择不同的实现(基于cuDNN或后端原生)以最大化性能.如果GPU可用且层的所有参数满足cuDNN内核的要求(详见下文),当使用TensorFlow后端时,该层将使用快速的cuDNN实现.

使用cuDNN实现的要求是:

  1. activation == tanh
  2. recurrent_activation == sigmoid
  3. dropout == 0 且 recurrent_dropout == 0
  4. unrollFalse
  5. use_biasTrue
  6. reset_afterTrue
  7. 输入(如果使用掩码)严格右填充.
  8. 在最外层上下文中启用了即时执行.

GRU实现有两个变体.默认的一个基于v3,在矩阵乘法之前应用重置门.另一个基于原始,顺序相反.

第二个变体与CuDNNGRU(仅GPU)兼容,并允许在CPU上进行推理.因此它为kernelrecurrent_kernel设置了单独的偏置.要使用此变体,请设置reset_after=Truerecurrent_activation='sigmoid'.

例如:

>>> inputs = np.random.random((32, 10, 8))
>>> gru = keras.layers.GRU(4)
>>> output = gru(inputs)
>>> output.shape
(32, 4)
>>> gru = keras.layers.GRU(4, return_sequences=True, return_state=True)
>>> whole_sequence_output, final_state = gru(inputs)
>>> whole_sequence_output.shape
(32, 10, 4)
>>> final_state.shape
(32, 4)

参数: units: 正整数,输出空间的维度. activation: 要使用的激活函数. 默认:双曲正切(tanh). 如果你传递None,则不应用激活 (即"线性”激活:a(x) = x). recurrent_activation: 用于循环步骤的激活函数. 默认:sigmoid(sigmoid). 如果你传递None,则不应用激活 (即"线性”激活:a(x) = x). use_bias: 布尔值,(默认True),该层是否应使用偏置向量. kernel_initializer: kernel权重矩阵的初始化器, 用于输入的线性变换.默认: "glorot_uniform". recurrent_initializer: recurrent_kernel权重矩阵的初始化器, 用于循环状态的线性变换.默认:"orthogonal". bias_initializer: 偏置向量的初始化器.默认:"zeros". kernel_regularizer: 应用于kernel权重矩阵的正则化函数.默认:None. recurrent_regularizer: 应用于recurrent_kernel权重矩阵的正则化函数.默认:None. bias_regularizer: 应用于偏置向量的正则化函数. 默认:None. activity_regularizer: 应用于层输出(其"激活”)的正则化函数.默认:None. kernel_constraint: 应用于kernel权重矩阵的约束函数.默认:None. recurrent_constraint: 应用于recurrent_kernel权重矩阵的约束函数.默认:None. bias_constraint: 应用于偏置向量的约束函数. 默认:None. dropout: 0到1之间的浮点数.用于输入线性变换的单元丢弃比例.默认:0. recurrent_dropout: 0到1之间的浮点数.用于循环状态线性变换的单元丢弃比例.默认:0. seed: 用于丢弃的随机种子. return_sequences: 布尔值.是否返回输出序列中的最后一个输出,或完整序列.默认:False. return_state: 布尔值.是否在输出之外返回最后一个状态.默认:False. go_backwards: 布尔值(默认False). 如果True,则反向处理输入序列并返回反向序列. stateful: 布尔值(默认:False).如果True,批处理中索引i的每个样本的最后一个状态将用作下一批次中索引i样本的初始状态. unroll: 布尔值(默认:False). 如果True,网络将展开, 否则将使用符号循环. 展开可以加速RNN, 尽管它往往更占用内存. 展开仅适用于短序列. reset_after: GRU约定(重置门是在矩阵乘法之前还是之后应用).False是"之前”, True是"之后”(默认且与cuDNN兼容). use_cudnn: 是否使用基于cuDNN的实现."auto"将在可行时尝试使用cuDNN,并在不可行时回退到默认实现.

调用参数: inputs: 一个3D张量,形状为(batch, timesteps, feature). mask: 形状为(samples, timesteps)的二进制张量,指示是否 应掩码给定的timestep(可选). 一个True条目表示应利用相应的timestep,而一个False条目表示应忽略相应的timestep.默认值为None. training: Python布尔值,指示层应在训练模式还是推理模式下运行.此参数在调用单元格时传递给它.仅在使用了dropoutrecurrent_dropout时相关(可选).默认值为None. initial_state: 要传递给单元格第一次调用的初始状态张量列表(可选,None会导致创建零填充的初始状态张量).默认值为None.