经典卷积神经网络模型经典卷积神经网络模型—AlexNet,,VGG,,GoogLeNet
AlexNet
特征特征
8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。
将sigmoid激活函数改成了更加简单的ReLU激活函数。
用Dropout来控制全连接层的模型复杂度。
引入数据增强,如翻转、裁剪和颜色变化,从而进一步扩大数据集来缓解过拟合
第一个卷积层第一个卷积层
输入的图片大小为:2242243(或者是2272273)
第一个卷积层为:111196即尺寸为1111,
有
96
个卷积核
,
步长为
4,
卷积层后跟
ReLU,
因此输出的尺寸为
224/4=56,
去掉边缘为
55,
因此其输出的每个
feature map
为
555596,
同时后面跟
LRN
层
,
尺寸不变
.
最大池化层
,
核大小为
33,步长为2,因此feature map的大小为:272796.
第二层卷积层第二层卷积层
输入的tensor为272796
卷积和的大小为: 55256,步长为1,尺寸不会改变,同样紧跟ReLU,和LRN层.
最大池化层,和大小为33,
步长为
2,
因此
feature map
为
:1313*256
第三层至第五层卷积层第三层至第五层卷积层
输入的tensor为1313256
第三层卷积为 33384,步长为1,加上ReLU
第四层卷积为 33384,步长为1,加上ReLU
第五层卷积为 33256,步长为1,加上ReLU
第五层后跟最大池化层,核大小33,
步长为
2,
因此
feature map:66*256
第六层至第八层全连接层第六层至第八层全连接层
接下来的三层为全连接层,分别为:
FC : 4096 + ReLU
FC:4096 + ReLU
FC: 1000 最后一层为softmax为1000类的概率值.
本文中的模型都是在FashionMNIST数据集上验证
AlexNet模型pytorch实现
import time
import torch
from torch import nn, optim
import torchvision
import numpy as np
import sys
sys.path.append("/home/")
import os