Conv1DTranspose
classkeras.layers.Conv1DTranspose(
filters,
kernel_size,
strides=1,
padding="valid",
data_format=None,
dilation_rate=1,
activation=None,
use_bias=True,
kernel_initializer="glorot_uniform",
bias_initializer="zeros",
kernel_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
kernel_constraint=None,
bias_constraint=None,
**kwargs
)
1D 转置卷积层.
转置卷积的需求通常来自于希望使用一种与普通卷积方向相反的变换,即从具有某种卷积输出形状的东西变成具有其输入形状的东西,同时保持与该卷积兼容的连接模式.
参数:
filters: int, 输出空间的维度(转置卷积中的滤波器数量).
kernel_size: int 或 tuple/list 包含 1 个整数,指定转置卷积窗口的大小.
strides: int 或 tuple/list 包含 1 个整数,指定转置卷积的步长长度.strides > 1
与 dilation_rate > 1
不兼容.
padding: string, 可以是 "valid"
或 "same"
(不区分大小写)."valid"
表示没有填充."same"
会导致在输入的左右或上下均匀填充,使得输出具有与输入相同的高度/宽度维度.
data_format: string, 可以是 "channels_last"
或 "channels_first"
.输入中维度的顺序."channels_last"
对应于形状为 (batch, steps, features)
的输入,而 "channels_first"
对应于形状为 (batch, features, steps)
的输入.它默认为 ~/.keras/keras.json
中找到的 image_data_format
值.如果你从未设置过它,那么它将是 "channels_last"
.
dilation_rate: int 或 tuple/list 包含 1 个整数,指定用于扩张转置卷积的扩张率.
activation: 激活函数.如果为 None
,则不应用激活.
use_bias: bool, 如果为 True
,则向输出添加偏置.
kernel_initializer: 卷积核的初始化器.如果为 None
,则使用默认初始化器 ("glorot_uniform"
).
bias_initializer: 偏置向量的初始化器.如果为 None
,则使用默认初始化器 ("zeros"
).
kernel_regularizer: 卷积核的可选正则化器.
bias_regularizer: 偏置向量的可选正则化器.
activity_regularizer: 输出的可选正则化函数.
kernel_constraint: 可选的投影函数,在 Optimizer
更新后应用于核(例如,用于实现层权重的范数约束或值约束).该函数必须接受未投影的变量作为输入,并返回投影的变量(必须具有相同的形状).在进行异步分布式训练时不安全使用约束.
bias_constraint: 可选的投影函数,在 Optimizer
更新后应用于偏置.
输入形状:
data_format="channels_last"
:
形状为 (batch_shape, steps, channels)
的 3D 张量data_format="channels_first"
:
形状为 (batch_shape, channels, steps)
的 3D 张量输出形状:
data_format="channels_last"
:
形状为 (batch_shape, new_steps, filters)
的 3D 张量data_format="channels_first"
:
形状为 (batch_shape, filters, new_steps)
的 3D 张量返回:
表示 activation(conv1d_transpose(inputs, kernel) + bias)
的 3D 张量.
引发:
ValueError: 当 strides > 1
和 dilation_rate > 1
同时存在时.
参考文献: - 深度学习的卷积算法指南 - 反卷积网络
示例:
>>> x = np.random.rand(4, 10, 128)
>>> y = keras.layers.Conv1DTranspose(32, 3, 2, activation='relu')(x)
>>> print(y.shape)
(4, 21, 32)