处理神经网络训练时大量的矩阵运算。AlexNet 使用了两块 GTX 580 GPU 进行训
练,单个 GTX 580 只有 3GB 显存,这限制了可训练的网络的最大规模。因此作
者将 AlexNet 分布在两个 GPU 上,在每个 GPU 的显存中储存一半的神经元的参
数。因为 GPU 之间通信方便,可以互相访问显存,而不需要通过主机内存,所以
同时使用多块 GPU 也是非常高效的。同时,AlexNet 的设计让 GPU 之间的通信只
在网络的某些层进行,控制了通信的性能损耗。
(6)数据增强,随机地从 256´256 的原始图像中截取 224´224 大小的区域
(以及水平翻转的镜像),相当于增加了(256-224)2´2=2048 倍的数据量。如果没
有数据增强,仅靠原始的数据量,参数众多的 CNN 会陷入过拟合中,使用了数
据增强后可以大大减轻过拟合,提升泛化能力。进行预测时,则是取图片的四个
角加中间共 5 个位置,并进行左右翻转,一共获得 10 张图片,对他们进行预测
并对 10 次结果求均值。同时,AlexNet 论文中提到了会对图像的 RGB 数据进行
PCA 处理,并对主成分做一个标准差为 0.1 的高斯扰动,增加一些噪声,这个 Trick
可以让错误率再下降 1%。
3.4 局部响应归一化 LRN(Local Response Normalization)
参考:https://blog.csdn.net/yangdashi888/article/details/77918311
https://blog.csdn.net/hduxiejun/article/details/70570086
局部响应归一化原理是仿造生物学上活跃的神经元对相邻神经元的抑制现
象(侧抑制),然后根据论文有公式如下
这个公式中的 a 表示卷积层(包括卷积操作和池化操作)后的输出结果,这
个输出结果的结构是一个四维数组[batch,height,width,cha nnel],这里可以简单解
释一下,batch 就是 批次数(每一批为一张图片),height 就是图片高度,width 就
是图片宽度,channel 就是通道数可以理解成一批图片中的某一个图片经 过卷积
操作后输出的神经元个数(或是理解 成处理后的图片深度)。ai(x,y)表示在这个输
出结构中的一个位置[a,b,c,d],可以理解成在某一张图中的某一个通道下的某个