Keras 3 API 文档 / 层 API / 循环层 / SimpleRNN 层

SimpleRNN 层

[source]

SimpleRNN class

keras.layers.SimpleRNN(
    units,
    activation="tanh",
    use_bias=True,
    kernel_initializer="glorot_uniform",
    recurrent_initializer="orthogonal",
    bias_initializer="zeros",
    kernel_regularizer=None,
    recurrent_regularizer=None,
    bias_regularizer=None,
    activity_regularizer=None,
    kernel_constraint=None,
    recurrent_constraint=None,
    bias_constraint=None,
    dropout=0.0,
    recurrent_dropout=0.0,
    return_sequences=False,
    return_state=False,
    go_backwards=False,
    stateful=False,
    unroll=False,
    seed=None,
    **kwargs
)

全连接RNN,其中输出将被反馈作为新的输入.

参数: units: 正整数,输出空间的维度. activation: 要使用的激活函数. 默认: 双曲正切 (tanh). 如果你传递 None,则不应用激活函数 (即 "线性" 激活: a(x) = x). use_bias: 布尔值,(默认 True),层是否使用偏置向量. kernel_initializer: kernel 权重矩阵的初始化器, 用于输入的线性变换.默认: "glorot_uniform". recurrent_initializer: recurrent_kernel 权重矩阵的初始化器, 用于循环状态的线性变换.默认: "orthogonal". bias_initializer: 偏置向量的初始化器.默认: "zeros". kernel_regularizer: 应用于 kernel 权重矩阵的正则化函数.默认: None. recurrent_regularizer: 应用于 recurrent_kernel 权重矩阵的正则化函数.默认: None. bias_regularizer: 应用于偏置向量的正则化函数.默认: None. activity_regularizer: 应用于层输出(其 "激活")的正则化函数.默认: None. kernel_constraint: 应用于 kernel 权重矩阵的约束函数.默认: None. recurrent_constraint: 应用于 recurrent_kernel 权重矩阵的约束函数.默认: None. bias_constraint: 应用于偏置向量的约束函数.默认: None. dropout: 0 到 1 之间的浮点数. 用于输入线性变换的单元丢弃比例.默认: 0. recurrent_dropout: 0 到 1 之间的浮点数. 用于循环状态线性变换的单元丢弃比例.默认: 0. return_sequences: 布尔值.是否返回输出序列中的最后一个输出,或完整序列.默认: False. return_state: 布尔值.是否在输出之外返回最后一个状态.默认: False. go_backwards: 布尔值 (默认: False). 如果 True,则反向处理输入序列并返回反转的序列. stateful: 布尔值 (默认: False).如果 True,批次中索引 i 的每个样本的最后一个状态 将用作下一批次中索引 i 的样本的初始状态. unroll: 布尔值 (默认: False). 如果 True,网络将被展开, 否则将使用符号循环. 展开可以加速 RNN, 尽管它往往更占用内存. 展开仅适用于短序列.

调用参数: sequence: 一个 3D 张量,形状为 [batch, timesteps, feature]. mask: 形状为 [batch, timesteps] 的二进制张量,指示是否 应屏蔽给定的 timestep.一个 True 条目 表示应利用相应的 timestep, 而 False 条目表示应忽略相应的 timestep. training: Python 布尔值,指示层应在训练模式还是推理模式下运行. 此参数在调用单元格时传递给它. 仅在使用了 dropoutrecurrent_dropout 时相关. initial_state: 要传递给单元格第一次调用的初始状态张量列表.

示例:

inputs = np.random.random((32, 10, 8))
simple_rnn = keras.layers.SimpleRNN(4)
output = simple_rnn(inputs)  # 输出形状为 `(32, 4)`.
simple_rnn = keras.layers.SimpleRNN(
    4, return_sequences=True, return_state=True
)
# whole_sequence_output 形状为 `(32, 10, 4)`.
# final_state 形状为 `(32, 4)`.
whole_sequence_output, final_state = simple_rnn(inputs)