转置卷积层和卷积层是一样的吗?使用PyTorch进行概念试验

转置卷积层和卷积层是一样的吗?使用PyTorch进行概念试验

在这篇文章中,我将使用常规卷积操作测试和比较神经网络的分类任务,并通过用转置卷积替换卷积来比较相同的网络。

转置卷积运算

转置卷积操作现在是众所周知的,并且已经在许多需要上采样的模型中使用。它与卷积运算非常相似,只是卷积矩阵被转置。因此结果是输出增长而不是减少(取决于使用的padding,步幅和内核大小)。首先,让我们对输出在随机张量上的转置卷积的输出方式进行一些测试。

首先,我导入PyTorch并将其封装为变量,从批量大小为1、通道尺寸为1、高度为5、宽度为5的正态分布中抽取的随机张量如下图所示。然后我定义转置卷积运算,以得到正确的输入,内核大小为3x3,最大步长为1,padding为0。将这些转换为PyTorch代码(Python实现):

import torch

import torch.nn as nn

from torch.autograd import Variable

random_tensor = Variable(torch.randn(1, 1, 5, 5))

upsample_tnsr = nn.ConvTranspose2d(in_channels = 1, out_channels = 1, kernel_size = 3, stride = 1, padding = 0)

在继续之前,我想指定一些表示法,以方便地遵循这些定义。

一些设置:

  • $ latex n_W = $宽度的输入尺寸,$ latex n_H = $高度的输入尺寸。由于张量将是正方形,我们将参数n代表两者。
  • p =是应用于张量的填充
  • f =内核的大小
  • s =是将使用卷积运算应用的步幅。
  • c =是张量的通道维数

如果我们对张量应用常规卷积,结果可以描述如下:

转置卷积层和卷积层是一样的吗?使用PyTorch进行概念试验

这将是张量的宽度和高度的输出,并且它将是相同的,因为我们可以假设输入将具有相同的高度和宽度尺寸。

作为一个例子,假设我考虑上面指定的张量,在padding p = 1,内核大小f = 3和stride s = 1的情况下对其应用常规卷积运算,我们的输出将与输入n相同。

转置卷积层和卷积层是一样的吗?使用PyTorch进行概念试验

上图中:批量大小= 1,通道= 1,高度,宽度= 5的随机张量上运行卷积运算。内核f = 3,stride = 1 padding = 1的卷积输出在高度和宽度上保持不变。

现在,如果我们想对此运行转置卷积,那么我们期望的结果将通过以下等式描述:

转置卷积层和卷积层是一样的吗?使用PyTorch进行概念试验

假设在相同的张量上,我们运行转置卷积,其中stride s = 2,内核f = 3,padding = 1.然后我们期望的输出将是output = 9。

转置卷积层和卷积层是一样的吗?使用PyTorch进行概念试验

在相同的张量上运行转置卷积。高亮大小是对张量操作的结果。

现在,如果我们使用stride = 1,内核大小f = 3并且padding = 1,那么输出的结果将与输入相同。

您可以在下面看到结果:

转置卷积层和卷积层是一样的吗?使用PyTorch进行概念试验

转置卷积的输出尺寸与输入尺寸保持一致

用转置卷积构建网络

现在我利用转置卷积的输出,其中正确的设置保持与输入相同。这将是网络的隐藏层,并且由于平均池操作,到网络的输入图片将仅通过过渡层减少。

所以网络的 Dense Block用Python实现看起来像这样:

class Dense_Block_Transposed(nn.Module):

def __init__(self, in_channels):

super(Dense_Block_Transposed, self).__init__()

self.relu = nn.LeakyReLU(inplace = True)

self.bn = nn.BatchNorm2d(num_features = in_channels)

self.conv1 = nn.ConvTranspose2d(in_channels = in_channels, out_channels = 32, kernel_size = 3, stride = 1, padding = 1)

self.conv2 = nn.ConvTranspose2d(in_channels = 32, out_channels = 32, kernel_size = 3, stride = 1, padding = 1)

self.conv3 = nn.ConvTranspose2d(in_channels = 64, out_channels = 32, kernel_size = 3, stride = 1, padding = 1)

self.conv4 = nn.ConvTranspose2d(in_channels = 96, out_channels = 32, kernel_size = 3, stride = 1, padding = 1)

self.conv5 = nn.ConvTranspose2d(in_channels = 128, out_channels = 32, kernel_size = 3, stride = 1, padding = 1)

def forward(self, x):

bn = self.bn(x)

conv1 = self.relu(self.conv1(bn))

conv2 = self.relu(self.conv2(conv1))

c2_dense = self.relu(torch.cat([conv1, conv2], 1))

conv3 = self.relu(self.conv3(c2_dense))

c3_dense = self.relu(torch.cat([conv1, conv2, conv3], 1))

conv4 = self.relu(self.conv4(c3_dense))

c4_dense = self.relu(torch.cat([conv1, conv2, conv3, conv4], 1))

conv5 = self.relu(self.conv5(c4_dense))

c5_dense = self.relu(torch.cat([conv1, conv2, conv3, conv4, conv5], 1))

return c5_dense

这里,图像的高度和宽度尺寸不会改变,只有通道尺寸增加。

网络的下一个构建块是Transition Layer。

所以Transition Layer的Python代码如下所示:

class Transition_Layer_Transposed(nn.Module):

def __init__(self, in_channels, out_channels):

super(Transition_Layer_Transposed, self).__init__()

self.relu = nn.LeakyReLU(inplace = True)

self.bn = nn.BatchNorm2d(num_features = in_channels)

self.conv = nn.ConvTranspose2d(in_channels = in_channels, out_channels = out_channels, kernel_size = 1, bias = False)

self.avg_pool = nn.AvgPool2d(kernel_size = 2, stride = 2, padding = 0)

def forward(self, x):

bn = self.bn(self.relu(self.conv(x)))

out = self.avg_pool(bn)

return out

与常规的卷积

现在,我要在CIFAR10上训练这个模型,用随机梯度下降和完全相同的超参数训练这两个网络。我对60个epochs进行了优化,并在训练数据上画出了损失。

转置卷积层和卷积层是一样的吗?使用PyTorch进行概念试验

两个网络的训练误差。似乎这两个网络的学习或多或少都是一样的,但常规卷积显示出更好的结果。

对每个类的精度分别进行测量

现在让我们看看这些网络对测试数据的表现,以及它们在每个类中的准确性:

转置卷积层和卷积层是一样的吗?使用PyTorch进行概念试验

结论

通过上述实验,转置卷积似乎可以学习有意义的结果,并且具有与常规卷积相当的准确度,即使对于分类任务也是如此。

但是对于转置卷积更多地用于上采样目的,例如在生成对抗网络中。但正如本文所建议的那样,更好地使用上采样层,例如运行双线性插值以进行上采样,然后进行卷积。

相关推荐