( 1) 第 1 个卷积层 conv1 的卷积核从 11×11 缩 小到 9×9,更小的卷积核可以提取更精细的特征。 第 2 个卷积层 conv2 和第 3 个卷积层 conv3 的输出 节点数由 256 减少至 192,pad 由 2 减少为 1。每次 池化层后,输出结果乘以 2。 ( 2) 删除所有的 LRN 层。LRN 层的参数设置 需要经过交叉验证,同时实践也证明,经过恰当的参 数初始化并使用类似于批规范化( Batch Normalization,BN) 的归一化操作之后,LRN 层对提升网络的 范化能力并无增益。 ( 3) 删除分组( Group) 操作。AlexNet 采用分组 操作是为了利用两块显卡进行并行训练,而随着硬 件发展,目前单显卡性能已经基本满足要求。 ( 4) conv2、conv3 卷积层大小为 5×5 卷积核拆 分为两层的 3×3 的卷积核,网络深度增加的同时没 有增加计算量。 ( 5) 第 2、3 个全连接层的节点数从 4 096 调整 为 2 048。给我写出改完后的Alex net网络结构
时间: 2024-03-29 10:40:25 浏览: 40
pytorch-卷积神经网络基础
以下是改完后的AlexNet网络结构:
- 输入层:227x227x3的图像
- 卷积层1:96个大小为11x11的卷积核,步长为4,输出尺寸为55x55x96
- 池化层1:大小为3x3的池化核,步长为2,输出尺寸为27x27x96
- 卷积层2:256个大小为5x5的卷积核,步长为1,输出尺寸为27x27x256
- 池化层2:大小为3x3的池化核,步长为2,输出尺寸为13x13x256
- 卷积层3:384个大小为3x3的卷积核,步长为1,输出尺寸为13x13x384
- 卷积层4:384个大小为3x3的卷积核,步长为1,输出尺寸为13x13x384
- 卷积层5:256个大小为3x3的卷积核,步长为1,输出尺寸为13x13x256
- 池化层3:大小为3x3的池化核,步长为2,输出尺寸为6x6x256
- 全连接层1:4096个节点
- 全连接层2:2048个节点
- 输出层:1000个节点,使用Softmax激活函数进行分类
其中,所有卷积层和全连接层都使用ReLU激活函数。
阅读全文