alexnet网络结构详解
时间: 2023-07-07 16:07:40 浏览: 187
AlexNet是2012年ImageNet大规模视觉识别竞赛(ILSVRC)冠军的深度卷积神经网络模型,是深度学习中的一个重要里程碑,其结构如下:
1. 输入层:图像的原始像素值。
2. 第一层卷积层:使用96个卷积核,每个卷积核的大小为11*11*3,步长为4,没有padding。输出特征图的大小为:(227-11)/4+1=55,即55*55*96。
3. 第一层的ReLU激活函数:在每个卷积后加入ReLU激活函数,以增强模型的非线性特性。
4. 第一层的局部响应归一化层:在ReLU激活函数之后,对每个特征图进行局部响应归一化以增强模型的泛化能力。
5. 第一层的最大池化层:每个特征图使用3*3的卷积核进行最大池化,步长为2,没有padding。输出特征图的大小为:(55-3)/2+1=27,即27*27*96。
6. 第二层卷积层:使用256个卷积核,每个卷积核的大小为5*5*48(前一层的每个特征图有48个通道),步长为1,padding为2。输出特征图的大小为:(27+2*2-5)/1+1=27,即27*27*256。
7. 第二层的ReLU激活函数:与第一层相同,在每个卷积后加入ReLU激活函数,以增强模型的非线性特性。
8. 第二层的局部响应归一化层:与第一层相同,在ReLU激活函数之后,对每个特征图进行局部响应归一化以增强模型的泛化能力。
9. 第二层的最大池化层:每个特征图使用3*3的卷积核进行最大池化,步长为2,padding为0。输出特征图的大小为:(27-3)/2+1=13,即13*13*256。
10. 第三层卷积层:使用384个卷积核,每个卷积核的大小为3*3*256,步长为1,padding为1。输出特征图的大小为:(13+2*1-3)/1+1=13,即13*13*384。
11. 第三层的ReLU激活函数:与第一层相同,在每个卷积后加入ReLU激活函数,以增强模型的非线性特性。
12. 第四层卷积层:使用384个卷积核,每个卷积核的大小为3*3*192(前一层的每个特征图有192个通道),步长为1,padding为1。输出特征图的大小为:(13+2*1-3)/1+1=13,即13*13*384。
13. 第四层的ReLU激活函数:与第一层相同,在每个卷积后加入ReLU激活函数,以增强模型的非线性特性。
14. 第五层卷积层:使用256个卷积核,每个卷积核的大小为3*3*192,步长为1,padding为1。输出特征图的大小为:(13+2*1-3)/1+1=13,即13*13*256。
15. 第五层的ReLU激活函数:与第一层相同,在每个卷积后加入ReLU激活函数,以增强模型的非线性特性。
16. 第五层的最大池化层:每个特征图使用3*3的卷积核进行最大池化,步长为2,padding为0。输出特征图的大小为:(13-3)/2+1=6,即6*6*256。
17. 全连接层1:将第五层的输出展开成一个向量,与4096个神经元全连接。输出大小为:4096。
18. 全连接层2:与第17层相同,将4096个神经元全连接。输出大小为:4096。
19. 全连接层3:与第17层相同,将1000个神经元全连接。输出大小为:1000。
20. Softmax层:将第19层的输出进行softmax变换,得到1000个类别的概率分布。
AlexNet使用了GPU加速,使得训练时间大大缩短,同时也采用了Dropout、数据增强等技术以减小过拟合问题。
阅读全文