改进卷积神经网络:批归一化与全局池化的植物病害识别

需积分: 19 86 下载量 38 浏览量 更新于2024-08-08 收藏 1.23MB PDF 举报
"这篇文章主要介绍了如何改进传统的卷积神经网络模型,通过结合批归一化和全局池化技术,以解决训练时间长和模型参数庞大的问题。作者提出了一个用于多种植物叶片病害识别的深度学习模型,该模型在提高识别准确率的同时,降低了内存需求和训练迭代次数。" 在卷积神经网络(CNN)中,批归一化(Batch Normalization)是一种常用的技术,其目的是加速网络的收敛速度和提高模型的泛化能力。批归一化算法通过计算每个批次数据的均值和方差,对输入数据进行标准化处理,使其均值为0,方差为1。这一过程可以减少内部协变量位移,使得网络在训练过程中更稳定。在公式(1)和(2)中,μ和σ分别表示批次数据的均值和方差,式(3)则是归一化的过程,ε是一个常数,用以防止单位方差为0导致的除法运算无效。为了保持原始数据的特征分布,批归一化还引入了γ和β参数(式4-6),通过训练学习这些参数,可以对归一化后的数据进行重构,以恢复原始数据的分布特性。 全局池化(Global Pooling)是另一种优化策略,它通常用在CNN的池化层之后,以减少模型的参数数量。传统的全连接层如果包含大量神经元,会增加模型的参数量和训练时间。全局池化层取代全连接层,通过取特征图的最大值或平均值,极大地减少了特征数量,降低了模型的复杂度。这不仅减少了参数,也使得模型对输入图像的空间位置变化具有更强的鲁棒性。 在本文中,作者针对植物叶片病害识别问题,构建了一个结合批归一化和全局池化的CNN模型。通过在卷积层应用批归一化,加快了网络的训练收敛速度,而全局池化则进一步减少了模型的参数,降低了内存需求。实验结果显示,改进后的模型在经过较少的训练迭代次数(3次)后,就能达到超过90%的识别准确率,同时模型的参数内存需求仅为2.6MB,平均测试识别准确率高达99.56%,查全率和查准率的加权平均分数为99.41%。这种改进模型表现出良好的识别准确性和鲁棒性,对于多种植物叶片病害的识别有较高的实用价值。