AlexNet模型的各层结构的特点
时间: 2024-06-18 20:03:00 浏览: 95
AlexNet网络结构详解与模型的搭建
5星 · 资源好评率100%
AlexNet是一个经典的深度卷积神经网络模型,其结构包括五个卷积层和三个全连接层,具体的特点如下:
1. 卷积层1:输入的是224x224x3的RGB图像,使用96个大小为11x11的卷积核进行卷积操作,步长为4,得到96个大小为55x55的特征图,接着使用ReLU激活函数进行非线性变换,并进行局部响应归一化(LRN)操作。
2. 卷积层2:输入是上一层96个特征图,使用256个大小为5x5的卷积核进行卷积操作,步长为1,得到256个大小为27x27的特征图,接着使用ReLU激活函数进行非线性变换,并进行LRN操作和最大池化(池化窗口大小为3x3,步长为2)操作。
3. 卷积层3:输入是上一层256个特征图,使用384个大小为3x3的卷积核进行卷积操作,步长为1,得到384个大小为13x13的特征图,接着使用ReLU激活函数进行非线性变换。
4. 卷积层4:输入是上一层384个特征图,使用384个大小为3x3的卷积核进行卷积操作,步长为1,得到384个大小为13x13的特征图,接着使用ReLU激活函数进行非线性变换。
5. 卷积层5:输入是上一层384个特征图,使用256个大小为3x3的卷积核进行卷积操作,步长为1,得到256个大小为13x13的特征图,接着使用ReLU激活函数进行非线性变换,并进行最大池化操作(池化窗口大小为3x3,步长为2)。
6. 全连接层1:将上一层得到的256个13x13的特征图展开成一个4096维的向量,并通过全连接操作得到一个4096维的输出向量,再使用ReLU激活函数进行非线性变换。
7. 全连接层2:输入是上一层得到的4096维向量,通过全连接操作得到一个4096维的输出向量,再使用ReLU激活函数进行非线性变换。
8. 全连接层3:输入是上一层得到的4096维向量,通过全连接操作得到一个1000维的输出向量(对应1000个类别),再使用Softmax函数进行分类。
阅读全文