深度残差去噪网络提升遥感融合图像质量

4 下载量 137 浏览量 更新于2024-08-27 2 收藏 15.53MB PDF 举报
本文主要探讨了"基于深度残差去噪网络的遥感融合图像质量提升"这一主题,针对遥感图像融合过程中常见的问题,如细节丢失和光谱扭曲,提出了一种创新的图像处理算法。该算法的核心是深度残差去噪网络(DnCNN),它通过学习和理解固定融合算法的局限性,将实际的融合结果与理想高分辨率多光谱图像之间的差异,即所谓的广义噪声,转化为残差图像。DnCNN能够捕捉这些残留的特征并将其作为补充,从而增强和修复遥感融合结果。 作者首先假设在理想高分辨率图像和实际融合结果之间存在一种可学习的模式,这种模式反映了融合过程中的失真。通过训练DnCNN,网络能够自动学习如何从融合后的图像中提取出这部分丢失的信息。这种方法的优势在于它是一种无监督学习,不需要额外的标注信息,只需要大量的遥感图像数据作为训练样本。 在实验部分,作者选取了Quickbird卫星遥感图像数据集,对不同融合方法的结果进行了处理和对比。结果显示,应用DnCNN后置增强显著提高了所有融合图像的质量。特别是当与支持值变换(SVT)方法结合时,性能表现最优,超越了当前已有的最先进的遥感图像融合技术。这证明了深度残差去噪网络在提高遥感图像融合质量和细节恢复方面的潜力。 本文的研究主要集中在深度学习技术在遥感图像融合领域的应用,特别是在提升图像质量、减少细节丢失和光谱扭曲方面。通过深度残差去噪网络,研究人员能够开发出更加精准和高效的图像处理算法,这对于遥感数据分析和地球观测具有重要的实际意义。