22 池化层【动手学深度学习v2】

卷积层对矩阵中的位置信息非常敏感:例如在检测垂直边缘问题中,只有识别出的垂直边缘会置1,其余部分全为0,在实际应用中,会因为照明等因素边缘会过于敏感(边缘过薄)

池化层:降低卷积层对位置信息的过度敏感性
池化层种类:
1.二位最大池化:取池化窗口中的最大值

最大池化层应用例:对卷积输出进行一次二位最大池化,使边缘可容1像素移位。

注:池化层没有可学习的参数,且池化层输出通道数=输入通道数

2.平均池化层


代码实现
输出池化窗口中的最大值或平均值
import torch from torch import nn from d2l import torch as d2l def pool2d(X, pool_size, mode='max'): p_h, p_w = pool_size Y = torch.zeros((X.shape[0] - p_h + 1, X.shape[1] - p_w + 1)) for i in range(Y.shape[0]): for j in range(Y.shape[1]): if mode == 'max': Y[i, j] = X[i: i + p_h, j: j + p_w].max() elif mode == 'avg': Y[i, j] = X[i: i + p_h, j: j + p_w].mean() return Y
验证二维最大汇聚层的输出
X = torch.tensor([[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]]) pool2d(X, (2, 2))
tensor([[4., 5.], [7., 8.]])
验证平均汇聚层。
pool2d(X, (2, 2), 'avg')
tensor([[2., 3.], [5., 6.]])
用深度学习框架中内置的二维最大汇聚层,来演示汇聚层中填充和步幅的使用。 我们首先构造了一个输入张量X
,它有四个维度,其中样本数和通道数都是1。
X = torch.arange(16, dtype=torch.float32).reshape((1, 1, 4, 4)) X
tensor([[[[ 0., 1., 2., 3.], [ 4., 5., 6., 7.], [ 8., 9., 10., 11.], [12., 13., 14., 15.]]]])
默认情况下,深度学习框架中的步幅与汇聚窗口的大小相同(为了不重复池化)。 因此,如果我们使用形状为(3, 3)
的汇聚窗口,那么默认情况下,我们得到的步幅形状为(3, 3)
。
pool2d = nn.MaxPool2d(3) pool2d(X)
tensor([[[[10.]]]])
填充和步幅可以手动设定。
pool2d = nn.MaxPool2d(3, padding=1, stride=2) pool2d(X)
tensor([[[[ 5., 7.], [13., 15.]]]])
当然,我们可以设定一个任意大小的矩形汇聚窗口,并分别设定填充和步幅的高度和宽度。
pool2d = nn.MaxPool2d((2, 3), stride=(2, 3), padding=(0, 1)) pool2d(X)
tensor([[[[ 5., 7.], [13., 15.]]]])
在处理多通道输入数据时,汇聚层在每个输入通道上单独运算,而不是像卷积层一样在通道上对输入进行汇总。 这意味着汇聚层的输出通道数与输入通道数相同。 下面,我们将在通道维度上连结张量X
和X + 1
,以构建具有2个通道的输入。
X = torch.cat((X, X + 1), 1) X
tensor([[[[ 0., 1., 2., 3.], [ 4., 5., 6., 7.], [ 8., 9., 10., 11.], [12., 13., 14., 15.]], [[ 1., 2., 3., 4.], [ 5., 6., 7., 8.], [ 9., 10., 11., 12.], [13., 14., 15., 16.]]]])
如下所示,汇聚后输出通道的数量仍然是2。
pool2d = nn.MaxPool2d(3, padding=1, stride=2) pool2d(X)
tensor([[[[ 5., 7.], [13., 15.]], [[ 6., 8.], [14., 16.]]]])
补充知识:
池化层通常放在卷积层后
随着机器算力的提高,池化层作为节省算力的技术应用的越来越少了