没有合适的资源?快使用搜索试试~ 我知道了~
+v:mala2277获取更多论文基于一致性和对比度辅助重建的鲁棒单幅图像去雾成德1、李艳2、张定文3、王楠楠1、高新波4、孙建德2、西安电子科技大学1、山东师范大学23西北工业大学、4重庆邮电大学摘要单帧图像去雾作为一项基础的低层视觉任务,对于鲁棒智能监控系统的发展至关重要。本文首先研究了变雾度下的去雾鲁棒性问题,这是单图像去雾研究领域中一个现实而又尚未得到充分研究的问题。针对这一问题,本文提出了一种新的密度变分学习框架,以提高图像去模糊模型对各种负模糊图像的鲁棒性,从而更好地处理各种复杂的模糊场景.具体地说,去雾网络优化下的一致性正则化框架与建议的对比度辅助重建损失(CARL)。CARL通过从不同方向将去雾图像压缩到干净目标上,充分利用了去雾图像中的负信息,简化了传统同时,一致性正则化使多层次模糊图像的输出保持一致,从而提高了模型的鲁棒性.在两个合成数据集和三个真实数据集上的大量实验结果表明,我们的方法显着优于最先进的方法。1介绍图像去雾的目的是从模糊的输入中恢复出清晰的图像,这对于开发鲁棒的计算机视觉系统是必不可少的。它有助于减轻由环境条件引起的图像失真的副作用,对许多视觉分析任务,如物体检测[Lietal. ,2018年a]和场景理解[Sakaravanet al. ,2018]。因此,单图像去雾越来越受到人们的关注,最近提出了许多去雾方法[Qinet al. ,2020;Wuet al. ,2021]。在过去的几年中已经做出了巨大的努力,并且基于端到端深度学习的去雾方法在处理复杂场景方面取得了巨大的成功[Donget al. ,2020a;Liet al. ,2017;Honget al. ,2020;Shao等人,2020]。然而,当在具有不同雾度的图1:两种去雾方法对同一图像不同雾度的结果。第一行示出了具有三种不同密度的输入模糊图像。第二行和第三行分别示出了通过当前两种代表性方法(表示为实验结果表明,这些方法在处理不同场景下的模糊图像时缺乏鲁棒性。尽管这些方法的密度很低,但仍然不能总是获得期望的去雾性能,如图1所示的不一致性结果证明了这一点。我们可以清楚地看到,对于同一幅图像,不同的雾度,通过现有的去雾模型,往往会得到不同质量的去雾图像。这一现象表明,这种图像去雾模型对一些复杂的模糊场景不鲁棒,这不是我们期望的一个好的去雾模型。不幸的是,这种情况通常会发生在现实世界中。因此,如何提高去雾模型的鲁棒性成为一个重要而又有待研究的问题。图1所示的不一致结果也启发我们通过利用这些具有不同密度的多级模糊图像来正则化学习过程,以提高模型的鲁棒性。为了实现这一目标,我们创造性地提出了一个对比度辅助重建损失(CARL)的一致性正则化框架下的单图像去雾。其旨在训练更稳健的去雾模型以更好地处理各种模糊场景,包括但不限于具有不同密度的多级模糊图像。arXiv:[cs.CV] 2022年3月除雾模型1输入去雾模式2+v:mala2277获取更多论文在所提出的CARL中,我们充分利用了负信息,以更好地促进传统的正向去雾目标函数。具体地,我们将恢复的去雾图像及其对应的清晰图像(即地面实况)分别表示为锚点和正例。反例不仅可以从原始模糊图像及其具有不同模糊度的变体中构造,而且可以从其他一些去模糊模型生成的恢复图像中构造。CARL使网络预测在表示空间中接近清晰图像,远离负模糊图像。具体地说,将锚点推离各种负像似乎是从不同方向将锚点挤压到其正像。通过对反例的精心选取,可以帮助CARL在各种负模糊图像的正则化下,提高逼近其清晰图像的下界。此外,在对比损失中更多的负面示例通常可以贡献更多的性能改进,这已经在度量学习研究领域得到证明[Khoslaet al. ,2020]。因此,我们也尝试采用更多的负朦胧图像,以提高模型的能力,以应付各种朦胧的情况。为了进一步提高模型的鲁棒性,我们建议在CARL之上的一致性正则化框架下训练去雾网络一致性正则化的成功在于假设去雾模型在馈送具有不同密度的相同模糊图像时应输出非常相似甚至相同的去雾图像。这种约束满足了一个好的去雾模型在不同的烟雾场景下处理烟雾图像具体来说,我们通过均值-教师框架实现了这种一致性约束[Tarvainen和Valpola,2017]。对于每个输入的模糊图像,我们还求助于先前构建的具有不同模糊密度的图像或一些其他信息负例。然后,使用L1损失来最小化对应于一个清晰目标的所有去雾图像之间的差异一致性正则化显著提高了模型的鲁棒性和去雾网络的性能,并且它可以很容易地扩展到任何其他去雾网络架构。我们的主要贡献总结如下:• 在单帧图像去雾研究中,考虑变雾度下的去雾鲁棒性是一个现实• 我们提出了一个对比度辅助重建损失下的一致性正则化框架下的单图像去雾。该方法能充分利用各种负性雾天图像,提高去雾模型处理各种复杂雾天场景的能力• 在两个合成图像和三个真实图像去雾数据集上的实验结果表明,该方法明显优于现有的去雾算法。2相关工作单图像去雾的目的是从有雾的观测中生成无雾的现有的去雾方法大致可以分为依赖物理散射模型的方法和不依赖模型的方法。物理散射模型依赖的方法试图通过一些特殊设计的先验或网络结构,通过估计大气光和传输映射来恢复清晰的图像 对于基于先验的图像去雾方法,它们通常使用来自经验观察的不同的统计图像先验(诸如透明暗通道先验(DCP))来去除雾度[Heet al. ,2010],非本地先验[Bermanet al. ,2016]和对比度最大化[Tan,2008]。虽然这些方法取得了一系列的成功,但在野外环境不受约束的情况下,先验知识并不能处理所有的情况。例如,经典的DCP [Heet al. ,2010]不能很好地对模糊图像中的天空区域进行去雾,因为它不满足先验假设。近年来,随着深度学习在图像处理领域的成功应用,提出了许多基于大气散射模型的深度去雾方法。[Zhang和Patel,2018]通过密集连接的编码器-解码器结构将物理模型直接嵌入到去雾网络中。[Renet al. ,2016]提出了一种从粗到细的多尺度卷积神经网络来估计传输图。[Liet al. ,2017]对原有的大气散射模型进行了重构,联合估计了全球大气光和透射图。然而,这种基于物理散射模型的学习方法可能会产生累积误差并降低去雾效果,因为对透射图和全局大气光的不准确估计或某些此外,它是困难的,甚至无法收集有关传输地图和全球大气光在现实世界的场景地面真相。无模型深度去雾方法试图直接学习模糊输入和干净结果之间的映射,而不使用大气散射模型。大多数此类方法侧重于加强除雾网络。例如,[Liuet al. ,2019 b]设计了一个双残差神经网络架构,以探索配对操作用于图像恢复任务的潜力。[Quet al. ,2019]提出了一种像素到像素的去雾网络,以获得感知愉悦的结果。[Qinet al. ,2020]提出了一种注意力融合机制,以增强网络处理不同类型信息的灵活性。[Chenet al. ,2019]提出了端到端门控上下文聚合网络来恢复无模糊图像。这些方法只是最小化恢复的去雾图像和它的清洁目标之间的重建损失,没有任何正则化的图像或特征。最近,也出现了一些方法,采用距离度量正则化,以进一步改善重建损失。[Wuet al. ,2021]提出了一种用于单幅图像去雾的分对比度正则化方法。我们的方法也属于这一类,但它与他们有很大的我们特别提出了CARL的considerable正则化框架下的单图像去雾。+v:mala2277获取更多论文×联系我们图2:所提出的用于鲁棒的单图像去雾的方法的框架。它包括学生和教师网络相同的去雾网络架构,对比度辅助重建损失(CARL),以充分利用各种负模糊图像,从不同方向将去雾图像挤压到其干净的目标,一致性正则化框架,以显式处理多级模糊场景,以进一步提高其鲁棒性,以及传统的L1重建损失。它不仅可以充分利用现有的负雾实例,使去雾模型生成更自然的恢复图像,而且可以进一步提高模型的鲁棒性,以处理各种复杂的雾场景。3该方法该方法从以下两个方面对各种模糊场景进行了改进:1)CARL改进了传统的正向去雾目标函数,充分利用各种负向信息,从不同方向将去雾图像挤压到干净目标;2)一致性正则化通过显式利用多级模糊图像的约束输出,在下文中,我们详细描述了如图2所示的算法。3.1去雾网络架构在本文中,我们采用了以前提出的FFA网络[秦等。,2020年]作为我们的骨干网络架构。如图2所示,学生和教师网络共享相同的网络架构(FFA-Net),其包括以下组件:浅层特征提取部分、多组注意力架构(表示为G-x)、特征级联模块、重构部分和全局残差跳过连接。具体地说,输入模糊图像首先由一个卷积层与核大小为3 3,提取浅特征。然后,它通过三个组架构,其中每个组架构由19个基本块架构(BBA)组成,每个BBA由跳过连接和特征注意模块构成[Qinet al. ,2020]。然后将三个群架构的输出连接起来在通道方向的结构中,特征通过与全局跳跃连接相结合的两个卷积层。最后得到无模糊图像。3.2对比度辅助重建损失对比学习方法在表征学习方面取得了一系列成功,它旨在通过拉“正”对来学习区分性特征表征接近,同时将“负”对推得很远。受此启发,本文提出了为了模仿传统的对比学习,我们需要考虑两个方面:一个是如何构建正训练示例和负训练示例,另一个是如何将CARL应用于去雾框架[Wuet al. ,2021]。正如我们所知,精心构造有效的正、负训练样本对于更好地优化CARL非常关键。对于图像去雾任务,显然,正对是去雾图像及其对应的清晰图像,这可以表示为锚点和正例。我们的最终目标是将它们之间的差异最小化。同时,将锚点推离几个负例是从不同方向将锚点挤压到正例,如图2所示。因此,我们从几个方面来生成反例,包括原始的模糊图像、不同密度的多级模糊图像、先前模型中质量相对较低的去模糊图像以及输入模糊图像的其他变体。对于应用CARL的潜在空间,我们采用来自固定预训练模型“E”的常用中间特征作为特征提取器,例如VGG-19 [ Simonyan和Zisserman,2014 ],其用于[ Wu etal. ,2021;Johnson等人,2016]。将输入模糊图像表示为I,将其对应的去模糊图像表示为由去模糊网络φ生成的φ(I),并且将地面实况无模糊图像表示为J。对应于φ(I)的所选负像表示为Ii-,i1,,K,K是CARL中 我们将固定的预训练VGG模型提取的特征分别定义为E(J),E(φ(I))和E(I i−),分别用于正例,锚例和负例。模糊���图像图像去雾(雾′)多模糊图像(·)教师模型负像特征锚定阳性多重阴性模糊图像EMA去雾图像处理(二)特征(学生模型去雾图像特征���萃取器Conv层Clear Image图像清晰FFA块G-3C(正像特征CConcatenate元素加法对比度辅助重建损失(CARL)一致性损失L1损失+v:mala2277获取更多论文卡尔·埃莱我| ·|我的 天卡尔L·L←−L·然后,第m个CARL函数Lm可以公式化为:φt(),它们共享相同的网络架构,但分别由θs和θt进行参数化。e−|Em(φ(I))−Em(J)|/τ具体地说,我们首先用不同的-日志记录e−|Em(φ(I))−Em(J)|/τ +Ki=1−|Em(φ(I))−Em(I−)|/τ。(一)密度使用物理散射模型。通常,合成去雾数据集本身包含对应于一个干净的具有不同密度由方程式1,降级的L1距离,这通常实现更好的性能相比,L2距离的图像去雾任务。τ>0是控制输出锐度因此,最终的CARL可以表示如下,M形象对于真实世界的去雾数据集,我们在为其他数据集给出的透射图和大气光的帮助下生成不同的模糊图像,以及通过先前的去雾模型获得的一些相对较差质量的去雾图像,例如DCP [Heet al. ,2010]。给定两个不同的模糊图像I和I′,它们对应于同一个清晰图像J,它们分别被馈送到学生和教师网络这两个朦胧的图像由去雾网络φs(·)和φt(·)处理,LCARL=ωmLm、(二)得到去雾图像φs(I)和φt(I′)。一致正则化LCR可以表示如下,m=1其中ωm是使用由固定VGG模型生成的中间特征的第m注意,在Eq。1,正的点E m(J)和所有负的点Em(I i−)都是常数值,最小化CARL可以通过去雾图像特征E m(φ(I))优化去雾网络φ的参数。与我们的CARL相关,知觉丧失[Johnson et al. ,2016]最小化通过使用从固定的预先训练的深度模型提取的多层特征来确定预测与地面实况之间的视觉差异除此之外,一种划分对比学习方法[Wuet al. ,2021]采用原始朦胧图像作为负图像来正则化解空间。与上述方法不同的是,CARL方法的目标是最小化预测与其对应的地面真实值之间的重建误差,并将预测推离各种负模糊示例,这是一种从约束学习空间的不同方向挤压预测到其地面真实值的方法。 因此,它使去雾模型能够处理各种复杂的烟雾场景。传统的对比学习方法与我们提出的CARL方法的主要区别在于:传统的对比学习方法的目标是学习具有区分性的特征表示来区分不同类或同一性的实例,它既考虑了类间的差异性,又考虑了类内的紧密性。然而,对于这样的图像去雾任务,我们只考虑去雾图像与其对应的清洁目标之间的重建误差因此,CARL的最终目标是以对比的方式,借助各种负模糊示例,更好地优化反射损失。这也是为什么我们称所提出的方法为“对比度辅助重建损失”的原因3.3一致性正则化框架我们提出了一致性正则化的假设基础上,一个好的去雾模型应该输出非常相似,甚至是相同的去雾图像时,美联储相同的模糊图像与不同的密度。这种显式约束进一步提高了模型处理多级模糊图像的鲁棒性。 这种学习模式是通过培训来学生神经网络工作φs(·)和教师神经网络工作LCR=|φs(I)−φt(I′)|.(三)由方程式3、利用L1损失实现一致性正则化。最小化损失函数CR可以直接优化学生网络的参数φs(),而教师网络的参数则通过指数移动平均(EMA)技术更新,该技术基于先前的教师网络和当前的学生网络参数 。 与 以 前 的教 师 网 络 图 像 去 雾 [Hong et al. ,2020],我们没有预定义的高质量模型作为固定的教师模型,我们从学生网络φ s()的过去迭代中构建它。更新规则“EMA”的θ tλθ t+(1λ)θs,λ是一个平滑超 参 数 来 控 制 模 型 更 新 策 略 [Tar-vainen 和 Valpola ,2017]。因此,这种一致性正则化使得不同密度或不同场景下的模糊图像具有相同的无雾输出,大大提高了图像去雾模型的鲁棒性。3.4整体损失函数除了上述的CARL和一致性正则化外,我们还采用了传统的预测φ(I)与其对应的数据场的地面真值J之间的重建损失1它可以通过L1损失实现如下,L1=|φ s(I)−J|.(四)因此,总损失函数L可以表示为,L=L1+λ1LCR+λ2LCARL,(5)其中λ1和λ2是两个超参数,用于平衡总损失函数中的上述三项4实验4.1实验装置数据集和数据库。为了全面评估所提出的方法,我们在两个有代表性的合成数据集和三个具有挑战性的现实世+v:mala2277获取更多论文界数据集上进行了广泛的实验。RESIDE数据集[Lietal. ,2018 b]是一个广泛使用的合成数据集,它由两个广泛的+v:mala2277获取更多论文××表1:SOTS-室内和SOTS-室外合成数据集上SOTA方法的定量比较。SOTS-室内SOTS-室外表2:在I-Haze、O-Haze和Dense-Haze真实世界数据集上与SOTA方法的定量比较。I-Haze O-Haze浓雾方法引用PSNRSSIMPSNRSSIM方法PSNRSSIMPSNRSSIMPSNRSSIMDCP [Heet al. [TPAMI,2010 ]16.620.817919.130.8148DCP[Heet al. ,2010年]14.430.752016.780.653010.060.3856MSCNN [Renet al. ,2016]ECCV17.570.810220.730.8187MSCNN[Renet al. ,2016年]15.220.755017.560.650011.570.3959DehazeNet [Caiet al. ,2016]TIP21.140.847222.460.8514DehazeNet[Caiet al. ,2016年]14.310.722016.290.640013.840.4252AOD-Net [Liet al. ,2017]ICCV19.060.850420.290.8765AOD-Net[Liet al. ,2017年]13.980.732015.030.539013.140.4144DCPDN[Zhang和Patel,2018]CVPR19.000.840019.710.8300GridDehazeNet[Liuet al. ,2019年a]16.620.787018.920.672013.310.3681GFN [Renet al. ,2018]CVPR22.300.880021.550.8444KDDN[Honget al. ,2020年]––25.460.780014.280.4074EPDN [Quet al. ,2019]CVPR25.060.923222.570.8630FFA-Net[Qinet al. ,2020年]––––14.390.4524DuRN-US [Liuet al. ,2019 b]CVPR32.120.980019.410.8100MSBDN[Donget al. ,2020年a]23.930.891024.360.749015.370.4858GridDehazeNet [Liuet al. ,2019 a]ICCV32.160.983630.860.9819IDRLP[Juet al. ,2021年]17.360.789616.950.6990––KDDN [Honget al. ,2020]CVPR34.720.9845––AECR-Net[Wuet al. ,2021年]––––15.800.4660DA [Shaoet al. ,2020]CVPRMSBDN [Donget al. ,2020 a]CVPR25.3032.000.94200.986026.4430.770.95970.9550我们25.43 0.8807 25.83 0.807815.470.5482我们的-41.92 0.9954 三十三点二十六分 0.9849表3:在SOTS室内和浓雾数据集上具有不同组分的所提出的方法的消融研究。SOTS-室内密雾使用的子集,即,室内训练机(ITS),室外训练机(OTS).以ITS和OTS作为训练数据集,并有相应的测试数据集,即综合客观测试集(SOTS),包含500个测试样本,L[1]门 模糊 图 像( SOTS-Indoor) 和500 个 室外 模 糊图 像(SOTS-Outdoor)。我们还在以下真实世界数据集上评估了所提出的模型:NTIRE 2018图像去雾室内数据集(称为I-Haze)[Ancutiet al. ,2018 b],NTIRE 2018图像去雾室外数据集(O-Haze)[Ancutiet al. ,2018 a]和NTIRE 2019 密 集 图 像 去 雾 数 据 集 ( Dense-Haze )[Ancutiet al. ,2019]。我们分别进行了客观和主观测量。对于客观测量,我们采用峰值信噪比(PSNR)和结构相似性指数(SSIM)作为评价指标,这是广泛用于评估图像质量的图像去雾任务。在主观评价方面,我们通过比较去雾图像的视觉效果来评价算法的性能.实施细节。我们基于PyTorch和NVIDIA GTX 2080TiGPU实现了所提出的方法。在整个训练过程中,我们随机裁剪240个图像块作为输入,并采用亚当优化器,故障指数衰减率为0。9优化。学习速率最初设置为1 × 10-4,并使用余弦退火策略进行调整[Heet al. ,2019]。 我们遵循[吴等人。,2021]以选择第1、第3、第5、第9和从固定的预训练VGG-19 [Simonyan和Zisserman,2014]中的第13层计算公式中的L1距离。(2)、并且将它们对应的权重因子ωm设置为1,1,表1中 我们可以看到,我们提出的方法在SOTS-Indoor和SOTS-Outdoor数据集上都实现了最佳性能。在SOTS-Indoor测试数据集上,该方法获得了41.92dB的PSNR和0.9954的SSIM,分别超过了第二好的3.01dB PSNR和0.0053的SSIM。在SOTS-Outdoor测试数据集上,与第二好的方法相比,我们提出的方法获得了1.17dB的PSNR和0.0019的SSIM增益。在图3中,我们显示了去雾图像的代表性方法的视觉效果,用于主观比较。我们可以观察 到 , DCP 遭 受 颜 色 失 真 , 图 像 更 暗 , 不 真 实 。MSCNN、DehazeNet和AOD-Net不能完全去除雾霾,仍然有大量的雾霾残留。虽然GridDehazeNet和FFA-Net可以达到更好的去雾效果,但它们的结果与地面真实值之间仍然存在差距相比之下,我们提出的方法生成的图像更接近地面真实,更自然,这也验证了PSNR和SSIM。真实世界数据集的结果。我们还评估了我们提出的方法在三个具有挑战性的现实世界的数据集。如表2所示,我们提出的方法优于大多数最先进的方法,并且我们 在 I-Haze 数 据 集 上 获 得 了 25.43dB PSNR 和 0.8807SSIM , 在 O-Haze 数 据 集 上 获 得 了 25.83dB PSNR 和0.8078 SSIM,在O-Haze数据集上获得了14.47dB PSNR和0.8078 SSIM。54.82密集霾数据集上的SSIM。 关于I-Haze和Dense-32 161,1,1,分别。负例Haze数据集的数量,尽管我们提出的方法略8 4K=5,参数τ=0。五、的在SSIM和PSNR方面低于现有技术的方法使用Eq. 1被设置为方程中的超参数λ1和λ25分别设置为1.0和10.0。4.2与最先进方法的合成数据集的结果。我将遵循《古兰经》的教诲。,2020]来评估我们提出的方法在两个代表性的合成数据集上,并将其与十七种最先进的(SOTA)方法进行比较。结果示但在PSNR和SSIM方面分别更高。一般来说,我们提出的方法仍然可以在真实世界的数据集上保持先进的结果,图3中的一些视觉比较也验证了这一点。4.3消融研究提出的图像去雾方法包含两个新的方面:1)提出的CARL,以更好地优化网络,方法PSNRSSIMPSNRSSIM36.390.988614.390.4524L 1 + LDivC Wu et al. ,2021年37.540.991514.820.5354L1+LCARL39.560.993915.300.5438L1+LCARL+LCR41.920.995415.470.5482FFA-Net [Qinet al. ,2020年]AAAI36.390.988632.090.9801FD-GAN [Donget al. ,2020 b]AAAI23.150.9207––DRN [Liet al. ,2020年]尖端32.410.985031.170.9830AECR-Net [Wuet al. ,2021年]CVPR37.170.9901––DIDH [Yoonet al. ,2021年]AAAI38.910.980030.400.9400+v:mala2277获取更多论文LLLLLLLLL LLL LL1998年,美国总统克林顿在华盛顿举行的第二次世界大战期间,曾于1999年10月17日至19日对美国进行了国事访问。995∞/115.89 /0.80 13.09 /0.79 18.16 /0.82 21.26 /0.85 18.81/0.90 28.85/0.9798 436.09/0。986∞/1输入DCPMSCNNDehazeNetAOD-Net GridDehazeNet FFA-Net我们地面实况图3:用不同方法对两个模糊图像进行目视比较第一行:SOTS室内数据集的去雾结果第二行:SOTS-Outdoor数据集的去雾结果。每个图像下的数字表示PSNR和SSIM值。表4:λ 1 = 1时λ 2的参数敏感性分析。SOTS室内数据集上为0λ2世界朦胧图像数据集。我们基于相同的去雾网络架构(FFA-Net [Qinet al. ,2020])。数据集λ2=1= 5λ2= 10λ2= 15个我们实现了以下四个变体的建议峰值信噪比41.48 40.2841.9239.910.9954 0.9932中级中级图4:不同方法对不同雾度图像的去雾效果。工作参数; 2)一致性正则化框架,进一步提高模型的鲁棒性。 为了揭示每种成分对性能改善的贡献,我们进行了烧蚀研究,以分析不同的元素,包括L1,LCR和LCARL,在合成和真实的,方法:1)1:通过传统的L1损失函数训练网络,其用作基线方法; 2)1+CARL:与L1损失和我们提出的CARL联合训练网络; 3)1+DivC[Wu et al. ,2021]:与L1损失和分割对比度损失联合训练网络[Wu et al. ,2021],这是为了与我们的算法进行比较; 4)1+ CARL+ CR:结合L1损失、CARL和一致性正则化来训练网络,这是我们的最终算法,如等式2所示。五、这些模型的性能总结在表3中,我们可以清楚地看到,通过将我们提出的CARL添加到传统的L1损失中,我们可以分别在SOTS室内和密集烟雾数据集上提高基线PSNR 3.17db 和 0.91db 。 与 相 关 方 法 DivC[Wuet al. ,2021],我们提出的方法在这两个数据集上分别优于DivC 2.02db和0.48db的PSNR。当进一步添加一致性正则化CR在这两个数据集上的性能也分别提高了2.36db和0.17db。如图4所示,我们可以清楚地看到,我们的方法生成了更一致的去雾图像,并且可以很好地处理多级模糊图像。因此,如此详细的实验结果极大地说明了我们所提出的方法的有效性。参数敏感性分析见表4。 如Eq. 5、我们最终的损失函数包含三项:1、CR和CARL。为了研究超参数对性能的影响,我们对这些参数的各种值进行了综合实验。在这里,我们只列出当λ1= 1时不同λ 2的性能。0,用于纸张长度的限制。 我们可以清楚地看到,当λ2=10时,我们的方法产生最佳性能。0的情况。5结论在本文中,我们提出了一个对比度辅助重建损失的单图像去雾。所提出的方法可以充分利用负面信息,以更好地促进我们FFA网格DCPSOTS-室内输入+v:mala2277获取更多论文传统的正向去雾目标函数。此外,本文还提出了一致性正则化方法,进一步提高了模型的鲁棒性和一致性.所提出的方法可以作为一个通用的学习框架,以进一步提高各种最先进的去雾网络的性能,在未来,我们将把我们的方法扩展到许多其他相关的任务,如图像去噪,图像超分辨率等。引用[Ancuti et al. Codruta O Ancuti,Cosmin Ancuti ,RaduPastrofte,and Christophe De Vleeschouwer. O-haze:一个具有真实的雾和无雾户外图像的去雾基准。在CVPRW,2018年。[Ancuti et al. Cosmin Ancuti,Codruta O Ancuti ,RaduPastrofte,and Christophe De Vleeschouwer. I-haze:一个 具 有 真 实 的 雾 和 无 雾 室 内 图 像 的 去 雾 基 准 在ACIVS,2018年。[Ancuti et al. Codruta O Ancuti,Cosmin Ancuti,Ma- teuSbert,and Radu Jumefte.密集雾度:一个用于图像去雾的基准,具有密集雾度和无雾度图像。在ICIP,2019年。[Berman et al. ,2016] Dana Berman,Shai Avidan,等人非局部图像去雾。在CVPR,2016年。[Cai et al. 蔡博伦、徐祥民、贾奎、秦春梅和陶大成.Dehazenet:一个端到端的系统,用于消除单个图像的雾。IEEE TIP,2016.[Chen et al. ,2019]陈东东,何明明,范庆南,廖静,张立恒,侯东东,卢远,华刚.用于图像去雾和去盲的门控上下文聚合网络。在WACV,2019年。[Dong et al. , 2020 a] Hang Dong , Jinshan Pan , LeiXiang,Zhe Hu,Xinyi Zhang,Fei Wang,and Ming-Hsuan Yang.具有密集特征融合的多尺度增强去雾网络。在CVPR,2020年。[Dong et al. Yu Dong,Yihao Liu,He Zhang,ShifengChen,and Yu Qiao. Fd-gan:用于单个图像去雾的具有融合神经网络的生成对抗网络在AAAI,2020年。[He et al. 何开明、孙健、唐晓鸥.基于暗通道先验的单幅图像去雾方法。TPAMI,2010年。[He et al. ,2019] Tong He,Zhi Zhang,Hang Zhang,Zhongyue Zhang,Junyuan Xie,and Mu Li. 使用卷积神经网络进行图像分类的技巧包。在CVPR,2019年。[Hong et al. ,2020] Ming Hong,Yuan Xie,Cuihua Li,and Yanyun Qu.利用异质任务模拟提取图像去雾在CVPR,2020年。[Johnson et al. ,2016] Justin Johnson,Alexandre Alahi和Li Fei-Fei。实时风格转换和超分辨率的感知损失。在ECCV,2016年。[Ju et al. Mingye Ju,Can Ding,Charles A Guo,WenqiRen,and Dacheng Tao. Idrlp:图像去雾使用区域线优先。IEEE TIP,2021年。[Khosla et al. Prannay Khosla,PiotrTeterwak,和etalWang 。 有 监 督 的 对 比 学 习 . arXiv : 2004.11362 ,2020。[Li et al. Boyi Li , Xiulian Peng , Zhangyang Wang ,Jizheng Xu,and Dan Feng. AOD-net:一体化的去雾网络。在ICCV,2017年。[Li et al. Boyi Li , Xiulian Peng , Zhangyang Wang ,Jizheng Xu,and Dan Feng.端到端联合视频去雾和检测。在AAAI,2018年。[Li et al. Boyi Li,Wenqi Ren,Dacheng Tao,WenjunZeng,and Zhangyang Wang.对单幅图像去雾及其他方面进行基准测试。IEEE TIP,2018年。[Li et al. Pengyue Li,Jiandong Tian,Yandong Tang,Guolin Wang,and Chengdong Wu.用于单张图像去雾的深度retinex网络。IEEE TIP,2020年。[Liu et al. Xiaohong Liu,Yongrui Ma,Zhihao Shi,andJun Chen.Griddehazenet:用于图像去雾的基于注意力的在ICCV,2019年。[Liu et al. , 2019 b] Xing Liu , Masanori Suganuma ,Zhun Sun,and Takayuki Okatani.对偶剩余网络利用图像重建的成对运算的潜力.在CVPR,2019年。[Qin et al. Xu Qin , Zhilin Wang , Yuanchao Bai , Xi-aodong Xie,and Huizhu Jia.Ffa-net:特征融合atten-tion网络用于单图像去雾。在AAAI,2020年。[Qu et al. , 2019] Yanyun Qu , Yizi Chen , JingyingHuang,and Yuan Xie.增强的pix2pix去雾网络。在CVPR,2019年。[Ren et al. 任文琪,刘思,张华,潘金山,曹晓春,杨明轩。基于多尺度卷积神经网络的单图像去雾在ECCV,2016年。[Ren et al. ,2018] Wenqi Ren,Lin Ma,Xiaoxun Cao,Wei Liu,and Ming-Hsuan Yang.用于单图像去雾的门控融合网络在CVPR,2018年。[Sakaraban et al. , 2018] Christian Sakaravan , DengxinDai,and Luc Van Gool.基于合成数据的语义模糊场景理解。IJCV,2018年。[Shao et al. 2020] Yuanjie Shao , Lenenhan Li , WenqiRen,Changxin Gao,and Nong Sang.用于图像去雾的域自适应。在CVPR,2020年。[Simonyan 和 Zisserman , 2014] Karen Simonyan 和 An-drew Zisserman。用于大规模图像识别的极深卷积网络。arXiv:1409.1556,2014年。[Tan,2008] Robby T Tan.在恶劣天气下的能见度从一个单一的图像。在CVPR,2008年。[Tarvainen and Valpola,2017] Antti Tarvainen and HarriValpola.平均教师是更好的榜样:加权平均一致性目标改善了半监督深度学习的结果。NeurIPS,2017年。+v:mala2277获取更多论文[Wu et al. Haiyan Wu,Yanyun Qu,Shaohui Lin,JianZhou,Ruizhi Qiao,Zhizhong Zhang,Yuan Xie,andLizhuang Ma.用于紧凑的单个图像去雾的对比学习在CVPR,2021年。[Yoon et al. Kuk-Jin Yoon,Pranjay Shyam和Kyung-SooKim。领域不变的单图像去雾。在AAAI,2021年。[Zhang和Patel,2018] He Zhang和Vishal Patel。密集连接的金字塔式除雾网络。在CVPR,2018年。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功