两个3x3步长为1的卷积核的叠加,其感受野相当与一个5x5的卷积核。
时间: 2023-05-08 22:59:59 浏览: 147
卷积神经网络中,卷积层是其中一个重要的组成部分。在卷积层中,我们会使用卷积核(也就是过滤器)来对输入图片进行卷积操作,从而获得输出图片。其中,每个卷积核的大小和步长都是需要设定的超参。
当我们使用两个3x3步长为1的卷积核进行卷积操作时,可以将其看作是一个5x5的卷积核。这是因为,两个3x3的卷积核的中心像素点距离至多为2,而一个5x5的卷积核的中心像素点距离也是2。因此,两个3x3的卷积核叠加起来所得到的感受野,等效于一个5x5的卷积操作。
感受野的概念是指,在卷积神经网络中,输出图片的每个像素点都可以通过输入图片的一部分像素点进行计算得出。计算得出该像素点需要使用的输入图片的区域,就是该像素点所对应的感受野。
在使用卷积核进行卷积操作时,由于每个卷积核的大小和步长不同,因此每个像素点所对应的感受野也会不同。通过叠加两个3x3的卷积核,我们相当于将其视作一个更大的卷积核,从而扩大了每个像素点的感受野,能够更好地捕捉图像中的特征信息。
相关问题
一个 3x3 的输入图像,使用了 3x3 的卷积核,步长为 1,padding 为 0变成了几×几
如果使用了 3x3 的卷积核,步长为 1,padding 为 0,那么每一次卷积操作都会将输入图像的大小减小 2,因为卷积核只能在输入图像内部进行移动,边缘的像素无法参与卷积操作。
因此,对于一个 3x3 的输入图像,使用了 3x3 的卷积核,步长为 1,padding 为 0,经过一次卷积操作后,输出的大小为 1x1。所以最终变成了 1x1。
alexnet网络通过以下修改,写出新的网络结构( 1) 第 1 个卷积层 conv1 的卷积核从 11×11 缩 小到 9×9,更小的卷积核可以提取更精细的特征。 第 2 个卷积层 conv2 和第 3 个卷积层 conv3 的输出 节点数由 256 减少至 192。( 4) conv2、conv3 卷积层大小为 5×5 卷积核拆 分为两层的 3×3 的卷积核,网络深度增加的同时没 有增加计算量。 ( 5) 第 2、3 个全连接层的节点数从 4 096 调整 为 2 048。
以下是修改后的AlexNet网络结构:
- 输入层:227x227x3的图像
- 卷积层1:96个大小为9x9的卷积核,步长为4,输出尺寸为55x55x96
- 池化层1:大小为3x3的池化核,步长为2,输出尺寸为27x27x96
- 卷积层2:192个大小为3x3的卷积核,步长为1,输出尺寸为27x27x192
- 池化层2:大小为3x3的池化核,步长为2,输出尺寸为13x13x192
- 卷积层3a:96个大小为3x3的卷积核,步长为1,输出尺寸为13x13x96
- 卷积层3b:96个大小为3x3的卷积核,步长为1,输出尺寸为13x13x96
- 池化层3:大小为3x3的池化核,步长为2,输出尺寸为6x6x192
- 全连接层1:2048个节点
- 全连接层2:2048个节点
- 输出层:1000个节点,使用Softmax激活函数进行分类
其中,所有卷积层和全连接层都使用ReLU激活函数。第二个和第三个卷积层的输出节点数减少至192,并且conv2和conv3的卷积核拆分为两层3x3的卷积核。卷积层3被拆分为2个卷积层,每个卷积层拥有96个卷积核。此外,网络中没有LRN层和分组操作。
阅读全文