深度学习驱动的遥感图像场景分类:DCNN融合特征方法

2 下载量 111 浏览量 更新于2024-08-28 1 收藏 1.66MB PDF 举报
"利用DCNN融合特征对遥感图像进行场景分类" 遥感图像场景分类是遥感图像解析的重要组成部分,其在地理信息系统中扮演着关键角色,尤其在城市规划和管理方面具有重要意义。随着遥感图像空间分辨率的提高,图像所包含的地面场景细节更加丰富,类别多样性增加,类之间的相似性也增大,这使得场景分类变得更为复杂。因此,寻找更具表现力的特征和更高效的分类方法成为了高分辨率遥感图像场景分类的关键挑战。 传统的分类方法,如贝叶斯统计模型,虽然在处理类别数量较少、类间干扰较小的问题时效果良好,但当面临类间相似度大、类别总数多的情况时,其分类准确性往往不足。这主要是因为视觉单词(visual words)在描述复杂场景时的局限性。 深度卷积神经网络(DCNN)的出现,为解决这个问题提供了新的途径。DCNN能够从图像中自动学习到高层的抽象特征,这对于处理复杂场景分类非常有利。本文提出了一种利用DCNN融合特征的方法,具体包括第三种感知网络(Inspection-v3)、快速特征嵌入的卷积神经网络(CaffeNet)和OverFeatL三种不同的DCNN结构。通过这些网络提取的归一化融合特征,能够在保持信息丰富性的同时,减少冗余,提升分类性能。 实验在UCMLU数据集上进行,该数据集包含了多种复杂场景,经过DCNN融合特征的分类实验,取得了97.01%的准确率,这表明不同结构的DCNN提取的融合特征能够更全面地表达场景的语义信息,从而提高了分类的准确性。这种方法对于处理高分辨率遥感图像的场景分类具有很大的潜力,特别是在处理类间相似度大、类别多样化的场景时。 DCNN在遥感图像场景分类中的应用,特别是通过特征融合的方式,为解决复杂场景的识别难题提供了一个有效的解决方案。这种技术的发展不仅有助于提升遥感图像解析的效率,还可能推动地理信息系统的智能化和自动化水平。结合未来的大数据技术和人工智能算法,这一领域的研究有望实现更大的突破。