三层卷积层,其中后面两个卷积层参数共享
时间: 2023-07-08 17:25:37 浏览: 82
查看keras各种网络结构各层的名字方式
当后面两个卷积层参数共享时,可以减少模型的参数数量,并且可以加速模型的训练和推理过程。具体来说,可以将第二个卷积层的输出作为第三个卷积层的输入,并且两个卷积层的卷积核大小和步长都相同。这样,在第二个卷积层中学习到的特征可以被第三个卷积层共享,从而减少了模型中的参数数量。
假设第一层卷积层的输入是 $x$,卷积核大小为 $k_1 \times k_1$,步长为 $s_1$,输出特征图的大小为 $h_1 \times w_1 \times c_1$。第二层卷积层的卷积核大小为 $k_2 \times k_2$,步长为 $s_2$,输出特征图的大小为 $h_2 \times w_2 \times c_2$。第三层卷积层的卷积核大小为 $k_2 \times k_2$,步长为 $s_2$,输出特征图的大小为 $h_3 \times w_3 \times c_3$。其中,$k_2 = k_3$,$s_2 = s_3$,$c_1 = c_2$。
在第二个卷积层中,假设卷积核的数量为 $n$,则每个卷积核的大小为 $k_2 \times k_2 \times c_1$,输出特征图的大小为 $(h_1 - k_1)/s_1 + 1 - k_2)/s_2 + 1) \times (w_1 - k_1)/s_1 + 1 - k_2)/s_2 + 1) \times n$。在第三个卷积层中,由于参数共享,每个卷积核的大小仍然为 $k_2 \times k_2 \times c_1$,输出特征图的大小为 $(h_1 - k_1)/s_1 + 1 - k_2)/s_2 + 1) \times (w_1 - k_1)/s_1 + 1 - k_2)/s_2 + 1) \times n$,即与第二个卷积层的输出特征图大小相同。
因此,当后面两个卷积层参数共享时,可以减少模型中的参数数量,而且第三个卷积层的输出特征图大小与第二个卷积层的输出特征图大小相同。这样可以加速模型的训练和推理过程,同时还可以提高模型的泛化能力。
阅读全文