谷歌EfficientNets打破ImageNet纪录:准确率提升,效率提高10倍

2 下载量 189 浏览量 更新于2024-08-29 收藏 616KB PDF 举报
"谷歌开源了一种名为EfficientNets的新型模型缩放方法,该方法在ImageNet测试中达到了84.1%的准确率,比先前最佳的Gpipe模型提升了0.1%,但其模型更小巧,运行速度更快,参数量和FLOPS显著减少,效率提高了10倍。EfficientNets由谷歌大脑的工程师Mingxing Tan和首席科学家Quoc V. Le共同开发,其研究论文已被ICML 2019收录并公开源代码。" EfficientNets是谷歌针对卷积神经网络(CNN)模型规模扩大策略的一次创新尝试。传统的提升CNN准确率的方式包括增加网络深度、宽度或提高输入图像分辨率,但这通常需要手动调整且效果不一定最佳。谷歌提出的复合缩放(compound scaling)技术改变了这一现状,它使用一组固定的缩放系数,同步调整网络的深度、宽度以及输入分辨率,以此平衡模型的准确率和效率。 在实施过程中,首先通过网格搜索确定基线模型在特定资源限制下的最佳尺寸比例系数。然后,这些系数被用于扩大基线模型,构建出目标规模或计算需求的模型。此外,谷歌还利用AutoML中的神经架构搜索(MNAS)框架进一步优化基线网络,以提升模型的准确性和效率。 EfficientNets的表现显著优于现有的CNN模型,不仅在准确率上有提升,还在参数数量和FLOPS(浮点运算次数)上实现了大幅压缩。例如,EfficientNet-B7在保持高精度的同时,比Gpipe模型小8.4倍,运行速度快6.1倍。即便在相同计算资源的限制下,EfficientNet-B4相对于ResNet-50也展现出更高的准确率。 EfficientNets通过综合缩放策略和自动化的模型设计,成功地创建了能够在保持高准确率的同时,大幅度提高运行效率的CNN模型,这对于资源受限的环境和应用具有重大意义。这一创新方法为未来深度学习模型的设计提供了新的思路和参考。