SimpleRNN
classkeras.layers.SimpleRNN(
units,
activation="tanh",
use_bias=True,
kernel_initializer="glorot_uniform",
recurrent_initializer="orthogonal",
bias_initializer="zeros",
kernel_regularizer=None,
recurrent_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
kernel_constraint=None,
recurrent_constraint=None,
bias_constraint=None,
dropout=0.0,
recurrent_dropout=0.0,
return_sequences=False,
return_state=False,
go_backwards=False,
stateful=False,
unroll=False,
seed=None,
**kwargs
)
全连接RNN,其中输出将被反馈作为新的输入.
参数:
units: 正整数,输出空间的维度.
activation: 要使用的激活函数.
默认: 双曲正切 (tanh
).
如果你传递 None,则不应用激活函数
(即 "线性" 激活: a(x) = x
).
use_bias: 布尔值,(默认 True
),层是否使用偏置向量.
kernel_initializer: kernel
权重矩阵的初始化器,
用于输入的线性变换.默认:
"glorot_uniform"
.
recurrent_initializer: recurrent_kernel
权重矩阵的初始化器,
用于循环状态的线性变换.默认: "orthogonal"
.
bias_initializer: 偏置向量的初始化器.默认: "zeros"
.
kernel_regularizer: 应用于 kernel
权重矩阵的正则化函数.默认: None
.
recurrent_regularizer: 应用于 recurrent_kernel
权重矩阵的正则化函数.默认: None
.
bias_regularizer: 应用于偏置向量的正则化函数.默认: None
.
activity_regularizer: 应用于层输出(其 "激活")的正则化函数.默认: None
.
kernel_constraint: 应用于 kernel
权重矩阵的约束函数.默认: None
.
recurrent_constraint: 应用于 recurrent_kernel
权重矩阵的约束函数.默认: None
.
bias_constraint: 应用于偏置向量的约束函数.默认: None
.
dropout: 0 到 1 之间的浮点数.
用于输入线性变换的单元丢弃比例.默认: 0.
recurrent_dropout: 0 到 1 之间的浮点数.
用于循环状态线性变换的单元丢弃比例.默认: 0.
return_sequences: 布尔值.是否返回输出序列中的最后一个输出,或完整序列.默认: False
.
return_state: 布尔值.是否在输出之外返回最后一个状态.默认: False
.
go_backwards: 布尔值 (默认: False
).
如果 True
,则反向处理输入序列并返回反转的序列.
stateful: 布尔值 (默认: False
).如果 True
,批次中索引 i 的每个样本的最后一个状态
将用作下一批次中索引 i 的样本的初始状态.
unroll: 布尔值 (默认: False
).
如果 True
,网络将被展开,
否则将使用符号循环.
展开可以加速 RNN,
尽管它往往更占用内存.
展开仅适用于短序列.
调用参数:
sequence: 一个 3D 张量,形状为 [batch, timesteps, feature]
.
mask: 形状为 [batch, timesteps]
的二进制张量,指示是否
应屏蔽给定的 timestep.一个 True
条目
表示应利用相应的 timestep,
而 False
条目表示应忽略相应的 timestep.
training: Python 布尔值,指示层应在训练模式还是推理模式下运行.
此参数在调用单元格时传递给它.
仅在使用了 dropout
或 recurrent_dropout
时相关.
initial_state: 要传递给单元格第一次调用的初始状态张量列表.
示例:
inputs = np.random.random((32, 10, 8))
simple_rnn = keras.layers.SimpleRNN(4)
output = simple_rnn(inputs) # 输出形状为 `(32, 4)`.
simple_rnn = keras.layers.SimpleRNN(
4, return_sequences=True, return_state=True
)
# whole_sequence_output 形状为 `(32, 10, 4)`.
# final_state 形状为 `(32, 4)`.
whole_sequence_output, final_state = simple_rnn(inputs)