PyTorch 中 Conv2d 过程详解:单通道与多通道卷积

2 下载量 154 浏览量 更新于2024-08-30 收藏 94KB PDF 举报
Pytorch.nn.conv2d 过程验证方式(单、多通道卷积过程) Pytorch 中的 Conv2d 模块是深度学习中最常用的卷积神经网络模块之一。Conv2d 模块的主要功能是对输入数据进行卷积操作,从而提取出有用的特征。然而,在使用 Pytorch 的 Conv2d 模块时,许多开发者都遇到了困惑。特别是在单通道和多通道情况下的 filters 操作方式。 **单通道卷积核卷积过程** 在单通道情况下,输入图片只有一个通道,例如灰度图像。Conv2d 模块的 filters 是如何操作的?答案是, filters 将对输入图片进行卷积操作,从而提取出有用的特征。假设我们有 32 个卷积核,那么每个卷积核都可以学习到 32 种不同的特征。在这种情况下,输出将是 32 个 feature map。 **多通道卷积核卷积过程** 在多通道情况下,输入图片有多个通道,例如彩色图像。Conv2d 模块的 filters 是如何操作的?答案是, filters 将对每个通道进行卷积操作,从而提取出有用的特征。假设我们有 32 个卷积核,那么每个卷积核都可以学习到 32 种不同的特征。在这种情况下,输出将是 32 个 feature map,每个 feature map 对应一个通道。 **Pytorch.nn.Conv2d 模块的参数** Pytorch.nn.Conv2d 模块的参数包括: * in_channels: 输入图像的通道数 * out_channels: 卷积操作后输出的通道数 * kernel_size: 卷积核的大小 * stride: 卷积操作的步长 * padding: 零填充的大小 * dilation: 卷积核元素之间的间距 * groups: 输入通道到输出通道的阻塞连接数 * bias: 是否添加可学习的偏置项 **公式解释** 公式对很多人来说可能不是很清楚,那么我们来解释一下。公式的意思是,Conv2d 模块将输入图像与卷积核进行卷积操作,得到输出特征图。输出特征图的大小取决于卷积核的大小、步长和零填充的大小。 **结论** Pytorch.nn.Conv2d 模块是深度学习中最常用的卷积神经网络模块之一。通过了解单通道和多通道情况下的 filters 操作方式,我们可以更好地使用 Conv2d 模块来提取有用的特征。同时,了解 Pytorch.nn.Conv2d 模块的参数和公式对我们使用 Conv2d 模块也至关重要。

Defines the PatchGAN discriminator with the specified arguments. class NLayerDiscriminator(nn.Module): def init(self, input_nc=3, ndf=64, n_layers=3, norm_layer=nn.BatchNorm2d, use_sigmoid=False, use_parallel=True): super(NLayerDiscriminator, self).init() self.use_parallel = use_parallel if type(norm_layer) == functools.partial: use_bias = norm_layer.func == nn.InstanceNorm2d else: use_bias = norm_layer == nn.InstanceNorm2d self.conv1 = nn.Conv2d(input_nc, ndf, kernel_size=3, padding=1) self.conv_offset1 = nn.Conv2d(ndf, 18, kernel_size=3, stride=1, padding=1) init_offset1 = torch.Tensor(np.zeros([18, ndf, 3, 3])) self.conv_offset1.weight = torch.nn.Parameter(init_offset1) # 初始化为0 self.conv_mask1 = nn.Conv2d(ndf, 9, kernel_size=3, stride=1, padding=1) init_mask1 = torch.Tensor(np.zeros([9, ndf, 3, 3]) + np.array([0.5])) self.conv_mask1.weight = torch.nn.Parameter(init_mask1) # 初始化为0.5 kw = 4 padw = int(np.ceil((kw-1)/2)) nf_mult = 1 for n in range(1, n_layers): nf_mult_prev = nf_mult nf_mult = min(2n, 8) self.sequence2 = [ nn.Conv2d(ndf * nf_mult_prev, ndf * nf_mult, kernel_size=kw, stride=2, padding=padw, bias=use_bias), norm_layer(ndf * nf_mult), nn.LeakyReLU(0.2, True) ] nf_mult_prev = nf_mult nf_mult = min(2n_layers, 8) self.sequence2 += [ nn.Conv2d(ndf * nf_mult_prev, ndf * nf_mult, kernel_size=kw, stride=1, padding=padw, bias=use_bias), norm_layer(ndf * nf_mult), nn.LeakyReLU(0.2, True) ] self.sequence2 += [nn.Conv2d(ndf * nf_mult, 1, kernel_size=kw, stride=1, padding=padw)] if use_sigmoid: self.sequence2 += [nn.Sigmoid()] def forward(self, input): input = self.conv1(input) offset1 = self.conv_offset1(input) mask1 = torch.sigmoid(self.conv_mask1(input)) sequence1 = [ torchvision.ops.deform_conv2d(input=input, offset=offset1, weight=self.conv1.weight, mask=mask1, padding=(1, 1)) 上述代码中出现错误:RuntimeError: Expected weight_c.size(1) * n_weight_grps == input_c.size(1) to be true, but got false. (Could this error message be improved? If so, please report an enhancement request to PyTorch.),请问如何解决,给出修改后的代码

2023-05-30 上传