Shortcuts

MaxPool1d

class torch.nn.MaxPool1d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)[源代码]

对由多个输入平面组成的输入信号应用一维最大池化。

在最简单的情况下,输入大小为 (N,C,L)(N, C, L) 的层的输出值可以精确地描述为:

out(Ni,Cj,k)=maxm=0,,kernel_size1input(Ni,Cj,stride×k+m)out(N_i, C_j, k) = \max_{m=0, \ldots, \text{kernel\_size} - 1} input(N_i, C_j, stride \times k + m)

如果padding不为零,则输入会在两侧隐式填充负无穷大,填充的点数为padding的数量。dilation是滑动窗口内元素之间的步幅。这个链接有关于池化参数的很好的可视化展示。

注意

当 ceil_mode=True 时,滑动窗口允许超出边界,如果它们从左填充或输入区域内开始。从右填充区域开始的滑动窗口将被忽略。

Parameters
  • kernel_size (Union[int, Tuple[int]]) – 滑动窗口的大小,必须大于0。

  • 步幅 (联合[整数, 元组[整数]]) – 滑动窗口的步幅,必须大于0。默认值是kernel_size

  • 填充 (联合[整数, 元组[整数]]) – 在两侧添加的隐式负无穷填充,必须 >= 0 且 <= kernel_size / 2。

  • 膨胀 (联合[整数, 元组[整数]]) – 滑动窗口内元素之间的步幅,必须大于0。

  • return_indices (布尔值) – 如果 True,将返回最大值及其对应的索引。 对于后续的 torch.nn.MaxUnpool1d 很有用

  • ceil_mode (bool) – 如果True,将使用ceil而不是floor来计算输出形状。这确保了输入张量中的每个元素都被滑动窗口覆盖。

Shape:
  • 输入: (N,C,Lin)(N, C, L_{in})(C,Lin)(C, L_{in})

  • 输出: (N,C,Lout)(N, C, L_{out})(C,Lout)(C, L_{out}), 其中

    Lout=Lin+2×paddingdilation×(kernel_size1)1stride+1L_{out} = \left\lfloor \frac{L_{in} + 2 \times \text{padding} - \text{dilation} \times (\text{kernel\_size} - 1) - 1}{\text{stride}} + 1\right\rfloor

示例:

>>> # 池化大小=3,步幅=2
>>> m = nn.MaxPool1d(3, stride=2)
>>> input = torch.randn(20, 16, 50)
>>> output = m(input)