没有合适的资源?快使用搜索试试~ 我知道了~
2398从单个图像分离反射场景万人杰<$,石博新,李浩良<$,段凌宇,李伟杰Alex C. 科特湖†新加坡南洋理工大学电气与电子工程学院北京大学计算机科学系视频技术国家工程实验室陈鹏程实验室,深圳,中国{rjwan,lihaoliang,eackot}@ ntu.edu.sg,{shiboxin,lingyu}@ pku.edu.cn摘要对于透过玻璃拍摄的图像,现有的方法集中于通过将反射分量视为噪声来恢复背景场景。然而,玻璃表面反射的场景也包含着需要恢复的重要在本文中,而不是从混合图像中去除反射成分,我们的目标是恢复反射场景的混合图像。我们首先提出了一种策略来获得这样的地面真相及其相应的输入图像。然后,我们提出了一个两阶段的框架,以获得可见的反射场景的混合图像。具体来说,我们用平移不变损失训练网络,它对输入和输出图像之间的不对齐具有鲁棒性。实验结果表明,我们提出的方法取得了令人满意的结果。1. 介绍当透过玻璃拍照时,相机传感器总是接收到由玻璃后面的背景场景和玻璃前面的反射场景发射的光的混合。通过将反射分量视为要去除的噪声,先前的反射去除方法[20,29]旨在通过去除来自反射的干扰来改善背景场景的可见性。*通讯作者。本研究由新加坡总理办公室国家研究基金会(NRF-NSFC)资助NRF 2016 NRF-NSFC 001 -098,以及由Ng Teng Fong慈善基金会捐赠的NTU-PKU联合研究所支持这项研究工作是在新加坡南洋理工大学的快速丰富对象搜索(ROSE)实验室完成的。本研究得到了国家自然科学基金U1611461和61872012、国家重点研发计划(2019YFF0302902)、深圳市科技计划(JCYJ20170818141146428)和北京人工智能研究院(BAAI)的部分支持。图1.给定被反射污染的场景图像,反射去除恢复Bs(有时f(Rs)作为副产物),而反射场景分离旨在从f(Rs)进一步提取Rs。然而,玻璃不仅是一个噪音发生器,也是一个记录周围世界的半反射器。重要信息可以通过近似反射场景发出的光来恢复。对于刑事调查,调查人员可能会对出现在玻璃表面图像上的可疑物体或人员感兴趣[10]。通过从停放的汽车或窗户上出现的反射来分析路口处迎面而来的车辆,自动驾驶汽车或机器人可以使用反射作为替代来感知周围的世界[23]。考虑到背景光和反射光两者的劣化,混合图像的形成通常可以表示为:I=g(Bs)+f(Rs),(1)其中Bs和Rs分别表示由背景场景和反射场景发射的光; g(·)和f(·)分别表示在光传输期间Bs和Rs的各种退化;g(Bs)和f(Rs)de-(Rs)俄.西我BS混合图像背景场景反射分量反射场景2399增强网络分离网络估计反射分量图像估计反射地面实况反射场景图像场景图像…平移不变损失多尺度融合模糊SE扩张卷积 Convlayer反卷积层斑块差异LginvLlinvL颜色混合图像图像梯度图2.我们提出的方法的框架。分离网络从混合图像中分离反射分量。增强网络通过恢复反射场景的可见性来估计反射场景图像具体来说,我们通过考虑全局,局部和颜色一致性来设计平移不变损失,以使用非对齐信息优化整个网络注意最终分别到达相机传感器的背景和反射辐照度;它们的混合物形成I。退化函数g(·)和f(·)是由光从场景传播到传感器时的复杂因素例如,来自背景场景的光Bs可以在其透射穿过玻璃时被吸收,这导致g(Bs)Bs。但是,如图1所示,由于玻璃的高透射率[2],g(Bs)几乎是Bs的复制,这使得背景成分在混合图像中占主导地位。然而,对于反射场景发出的光Rs,只有有限数量的Rs可以被玻璃[2]反射并被相机接收,这导致f(Rs)Rs。<处理这种退化的一个流行的研究主题是消除反射[5],其目的是通过将f(Rs)视为噪声来恢复B s。虽然一些反射去除方法[20,30]也估计f(Rs),但它们的结果总是具有明显的背景残留边缘,这对于进一步处理是困难的。此外,如图1所示,f(Rs)几乎不包含有意义的视觉信息,因为它在大多数情况下看起来相当暗。因此,进一步从f(Rs)中提取具有增强可视性的Rs仍然是一个具有挑战性的问题。我们将这个问题定义为反射场景分离。该问题的目的是从混合图像I中获得清晰的反射场景图像。为了解决上述两个问题,我们将整个解决方案分为分离和增强两个阶段。如图2所示,在分离阶段,我们利用反射去除[20,30,12]的进展优势,特别关注反射成分分离。 在增强阶段,为了从f(Rs)中提取Rs,我们考虑了全局和局部特征,以提高反射场景的可见性。最后,由于我们采用数据驱动的方法来解决这个问题,我们提出了一个策略,用于训练和评估这一独特任务的数据集。通过在玻璃后面放置一个平面镜,我们的数据集包含地面真实反射场景图像,这有助于使用真实数据进行网络优化。相应地,我们引入了一个新的平移不变损失函数来处理数据集中的错位我们的主要贡献概述如下:• 我们定义了反射场景分离问题,旨在从混合图像中恢复清晰和有意义的反射信息。• 我们提出了一种策略来获得这个问题的训练和通过将镜子放在玻璃后面,我们的数据集成功地捕获了反射场景直接发射的光作为地面真实。• 我们提出了一个两阶段的框架来解决这个问题,并提出了一个平移不变的损失,以促进网络优化的实际数据中经常发生的错位。2. 相关工作反射消除。反射去除旨在近似背景场景发出的光。目前的方法主要采用深度学习框架来解决这个问题.例如,Fan等人 [5]提出了一种两阶段深度学习方法来学习混合图像和估计的干净图像之间的映射。最近,Wan等人 [19]提出了一种并发模型,以更好地保留背景细节。他们进一步提出了一种合作模式[20],以更好地利用中间信息。Zhang等人。 [30]还提出了一种基于生成对抗网络的感知反射消除方法。最近,Wei等人[22]提出了一种解决非对齐信息下的反射消除问题的方法。由于背景总是占主导地位的混合图像,这些方法已经实现2400混合图像反射分量图像反射场景图像镜黑布玻璃图3.图像三元组中的图像和相应的捕获设置的示例。从左到右,混合图像是通过玻璃拍摄的;将一块黑布放在玻璃后面,拍摄反射分量图像;通过在玻璃后面放置镜子来拍摄反射场景图像。有希望的结果。与这些反射消除方法不同,我们的方法旨在近似反射场景发出的光。反射的使用。以前的方法没有专门讨论反射场景分离问题。最相关的一个是由Yano等人提出的。 [25 ]第20段。然而,与我们的问题不同,在背景和反射高度混合的情况下,反射分量主导混合图像,并且背景几乎不可见,这不能直接用于我们的问题。此外,最近的方法[10]从角膜反射中提取了旁观者的面部,并提出了其在刑事调查中的可能应用。 Wu等人 [23]还提出了另一种从反射中定位目标的方法。Nishino等人 [17,16]估计了重新照明应用中角膜反射的照明。3. 数据集准备由于我们使用数据驱动的方法来解决这个问题,因此需要适当的数据集来学习固有的图像属性。反射去除方法[18]提出捕获图像三元组(I,B,R),其中I是混合图像,B是背景成分图像,R是反射成分图像记录f(Rs),玻璃反射的光。它提供了一个合理的方法来获得地面真理的反射分量图像。通过在玻璃后面放置一块黑布,摄像机只能捕捉到玻璃反射的反射光。然而,对于反射场景分离问题,由于最终目标是估计由反射场景发射的光,因此仅R为了接近反射场景发出的光的强度,我们在玻璃后面放了一面镜子,这样反射场景发出的几乎所有光都可以被镜子反射并被相机捕获。我们引入了一个新的图像三元组(I,R,Rs)用于反射场景分离问题,其中I和R具有与以前定义类似的含义,Rs表示反射场景图像。如图3所示,新的图像三元组被捕获如下:1)通过玻璃拍摄混合图像I; 2)通过在玻璃后面放置一块黑布来捕获反射分量图像R; 3)通过将一片镜子后面的玻璃。在数据采集过程中,我们使用了一个18- 55 mm变焦镜头的数码单反相机来收集图像三元组。三重图像中每幅图像的分辨率为4000×6000。具体而言,我们使用三脚架及遥控器以保持相机稳定,并选择较小光圈以尽量减少景深差异。训练和评估数据集。我们从室内和室外场景中捕获了真实世界中的80个图像三元组其中的30个三元组被用作用于概念验证目的的评估数据集。剩下的50个三胞胎用于训练。然后,我们将原始高分辨率的训练图像裁剪为大约40个较小的图像。通过对这些较小的图像进行分类,我们的训练数据集包含了2000个来自真实世界的图像三元组。为了增加背景场景的多样性,我们通过将反射分量图像与来自公共数据集的另一图像(例如,,COCO [14])。总的来说,我们的训练数据集包含2500个图像三元组,评估数据集包含30个图像三元组。失准分析。 三脚架和遥控器- 在数据捕获期间使用的控制可以很好地衰减混合图像和反射分量图像之间的未对准。然而,由于反射镜紧密地这种不对准是由玻璃和镜子的接触固有地引起的,并且通常引起20-70个像素移位。4. 该方法在本节中,我们将介绍所提出的网络的设计方法和实施细节。 根据等式(1)中的物理模型,我们采用两阶段框架来分别解决困难。 在第一阶段,我们的目标是从混合图像中分离出反射分量f(Rs)。在第二阶段,我们通过使用非对齐信息优化整个网络来增强反射场景的可见性4.1. 分离网络我们的分离网络2401混合图像反射分量图像估计反射场景图像DPE地面实况图4.混合图像、通过分离网络估计的反射分量图像、通过我们的方法和最近提出的低光图像增强方法DPE [4]估计的反射场景图像以及地面真实反射场景图像的示例。旨在通过从现有的反射去除方法中获得优点在上述条件下,反射分离网络的损失函数如下:ods [30,20].我们的分离网络类似于[30],也用于其他图像恢复任务。为了适应我们的问题,我们首先去除背部的层LSN=λ1LAdv(R,R)+λ2L1(R,R)+λ3L壮举(R,R),(五)地面分量估计然后,由于反射分量和背景分量在梯度域中更容易区分[12],因此我们将输入图像与其对应的梯度图像结合作为分离网络的输入。分离网络如下从混合图像分离反射分量:f(Rs)=GS([I,I]),(2)其中GS表示反射分离网络,I表示混合图像,I表示I的梯度图像,f(Rs)表示分离的反射分量,并且[·,·]表示级联操作。Gs包含扩张的卷积层,这增加了接收场的大小。 为了简单起见,我们将f(Rs)表示为R。我们使用Wasserstein GAN [1]和梯度惩罚项从混合图像中分离反射分量其中λ1= 0。001,λ2= 1,λ3= 0。3是权重,平衡不同的术语。图4中示出了分离的反射分量图像的示例。4.2. 增强网络如第1节和图4所示的示例中所讨论的,由于来自f(·)的干扰,在等式(2)中获得的分离的反射分量图像f(Rs)仍然具有残留边缘和暗外观。 为了从f(Rs)中提取R s,另一种解决方案是采用曝光校正方法,因为分离的反射分量图像和欠曝光图像之间的外观相似[11,21,27]。然而,曝光不足图像中的暗感的原因主要是由于低环境照明,并且这些图像中的噪声主要是在相机后处理过程期间产生的。这与我们的问题不同,在我们的问题中,暗的外观是由于玻璃的低反射率,并且伪影主要是在光透射期间产生的Ladv(z,z)= min maxEz P[Ds(z)]−Ez P[Ds(z)],过程此外,大多数以前的接触是-Gs Ds∈DgR(三)rection方法[3,21]在对齐信息上进行了优化,这不适用于我们的问题,其中DS是网络,D是1-Lipschitzonger,z是网络的估计,z表示z的真实值,Pr和Pg是相应的。响应数据分布。我们还使用特征损失来测量特征空间中的预测反射层与参考反射层之间的差异,如下:Σ不结盟的信息。从图4所示的结果来看,虽然曝光校正方法产生的结果变得更亮,但它们仍然具有明显的失真,这影响了人的感知。为了有效地增强分离后的反射图像中场景的可见性,我们采用U-Net作为骨干,构建增强网络如下:Lfeat=δl<$Φl(R)−Φl(R<$)<$L、(四)Rs=GE(R),(6)其中S表示估计的反射场景图像,并且其中Φ1表示VGG-19网络中的I层,并且δ1用于平衡不同的项。我们为图层选择在等式(4)中。我们采用经典的逐像素L1损失来增加最终估计结果的鲁棒性。结合GE表示增强网络。U-Net中的卷积层仅计算局部图像特征,其中不考虑影响整体可见性为了解决这个问题,如图2所示,我们不是纯粹基于局部图像特征来预测结果,而是12402MSE损失色不变损失BBS6.84.82.8然而对于我们的问题,其中像素移位的范围从20像素到70像素,由于模糊操作不能有效地衰减来自像素移位的影响,所以该策略也不适用。由于我们专注于颜色空间相似性,而不是依赖于欧几里得空间中的测量,我们基于余弦距离测量色差,如下所示:0.8 z·z010203040 506070每个图像之间的像素移位L颜色= 1−平均值Bbmax(zb2·z2,)、(8)图5.作为像素移位幅度的函数的像素方式损失和颜色不变损失之间的比较。对来自编码器的特征应用多尺度融合方案,如下所示:F=SE(Fg+ Fl)。(七)根据等式(7),融合方案将解码器和编码器之间的中间层分成局部路径和全局路径。局部路径包含两个卷积层,以基于来自解码器的特征来提取语义特征。全局路径包含两个卷积层和三个全连接层。通过全连接层获得的全局特征包含与整个图像的平均强度相关的特征[6]。然后,特征被融合并馈送到其中,zb表示模糊的估计图像,zb表示模糊的基础事实,z b是避免除以零的小值,并且mean(·)表示均值运算。如图5所示,通过测量两个向量之间的角度,等式(8)中的颜色不变损失对像素移位的敏感性低于基于L1和L2的损失函数。对于内容空间中的一致性,我们首先引入基于马尔可夫随机场(MRF)损失的局部不变损失[13]。代替测量逐像素特征差异,局部不变损失测量基于块的差异。对于来自估计的补丁,它从相应的地面实况中找到其类似的补丁,如下所示:Σm一个挤压和激励(SE)块[7]。不是将Fg和Fl连接起来,而是将这两个特征加在一起,Llinv=i=1 ǁΨi(Φ(z))−ΨNN(i)(Φ(z∗))ǁ1,(9)其中全局特征充当先验,以正则化由局部路径估计的特征[6]。SE块计算每个通道的归一化权重,并通过乘以SE块[7]学习的权重来选择性地突出特征。平移不变损失由于在数据采集过程中不可避免地会出现失准,因此需要设计一个损失函数,这适用于具有中度未对准的图像对最近提出了像CXLoss [15]这样的损失函数,以便于使用未对齐的信息进行网络优化。然而,CXLoss [15]在计算上是昂贵的[22],并且简单地依赖于来自特征域的信息也无法实现最佳结果[29],因为其他空间中的新失真(例如,颜色)。通过考虑颜色空间和内容空间的一致性,我们提出了一种平移不变损失保持颜色一致性的一种有效方法是直接采用RGB域中的逐像素损失函数。然而,由于估计图像和地面实况之间的不对准,像素级损失函数可能会引入新的伪影。为了解决这个问题,其中,m是n(Φ(x))的基数,n(Φ(z))表示来自Φ(z)的片,nNN (i)(Φ(z))表示n(Φ(z))来自Φ(z)的相似片,NN(i)表示两个片之间的片差。在MRF损失的原始定义中[13],从整个特征图中找到相似的补丁,NN(i)通过两个补丁之间的特征差异来测量。然而,由于我们的图像三元组中的像素移位仅在20到70像素的范围内,因此从整个图像中进行类似的块搜索变得不那么有意义,并且还占用额外的计算资源。为了加快计算速度并提高块匹配精度,对于每个块Rai(Φ(x)),而不是仅依赖于图像特征之间的余弦相似性,我们将空间像素坐标整合到原始公式中,如下所示:NN(i)= argmaxj=1,.,m(Df(pi,q j)+ ωsD(pi,q j)),(十)其中D(pi,q j)表示以位置i为中心的pi和以位置j为中心的q j之间的空间距离,并且Df(pi,q j)=阿尔普岛 ,qj ⟩ 表示十字架-pi以前的方法[8,9]测量像素差异在欧几里得空间中,首先对估计图像及其地面真实值应用高斯模糊。高斯模糊去除高频,使颜色比较更容易 [8]特别是对于小失真(≤2像素)。怎么-特征pi和qj之间的相关性[26],其中匹配过程可以通过附加的卷积层有效地执行[13,26]。对于全局内容一致性,我们直接使用VGG19中图像特征之间误差× 102403在等式(4)中描述为全局不变损失的网络。由于更深的特征可能对未对准更不敏感[22],因此我们简单地采用“conv52”层作为全局不变损失的特征。通过组合等式(8)、等式(9)中的损失函数和全局不变损失,平移不变损失被公式化如下:Lsinv=ωgLginv+ωlLlinv+ωcLcolor,(11)其中Lginv表示全局不变损失;ω g=0。3,ω 1=0。4,ωc=0。3为平衡三项影响的加权系数。通过引入对抗性损失,增强网络的损失函数如下:LEN=Lsinv+ωaLadv,(12)ωa= 1是加权系数。4.3. 实施和培训详情我们已经使用PyTorch和TensorFlow实现了我们的模型。我们网络的整个训练过程可以分为两个阶段。在第一阶段,我们首先训练分离网络收敛。在第二阶段,分离网络被固定并与增强网络连接。然后我们训练整个网络收敛。分离网络的学习率整个网络训练都设置为1×10- 4。5. 实验由于缺乏直接相关的方法,我们分别评估了分离网络和增强网络的性能。我们首先比较了三种反射去除方 法 ( CoRRN [20] , Zhang 等 人 [30] 和 Yang 等 人[24]),以评估我们的分离网络的性能。这三种方法都将反射分量估计为副产品,我们在我们的数据集上训练它们然后,对于增强网络,我们选择几种图像平移 和 曝 光 校 正 方 法 作 为 比 较 的 基 线 : DPE [4] ,CycleGAN [31]和EnlightenGAN [11]。由于这些方法不是针对我们的问题设计的,为了公平比较,我们使用分离网络估计的反射分量图像EnlightenGAN [11]和CycleGAN [31]都是在我们的数据集上训练的,这是因为它们的无监督或弱监督学习策略。对于DPE [4],我们直接在我们的评估数据集上运行他们发布的代码和预训练模型。我们采用最近提出的学习感知度量LPIPS [28]作为误差度量。它使用预先训练的深度网络来测量虚拟图像的相似性较低的LPIPS值指示较好的性能。没有表1.使用三种不同的误差度量对反射分量分离进行定量评估,并与CoRRN [20],Zhang等人[30]和Yang等人进行比较。[24]第10段。LPIPSSSIMPSNR我们0.1940.94235.085[20]第二十话0.4910.80121.718Zhang等人 [30个]0.6060.85425.625Yang等人[24日]0.5020.4227.2894表2.使用三种不同的误差度量对反射场景增强进行定量评估,并与Cy- cleGAN [31]、EnlightenGAN [11]和DPE [4]进行比较。LPIPSSSIMPSNR我们0.1510.71616.886CycleGAN [31]0.2020.58315.581EnlightenGAN [11]0.3150.59512.956[4]0.3310.47910.998为了不具有一般性,我们还选择了SSIM和PSNR两种方法进行比较,以供参考。尽管输入-输出图像对中存在中度未对准,但所有方法都存在这种未对准,因此比较是公平的[29]。5.1. 实验结果反思的定量评价 分离 虽然我们利用了以前的反射去除方法的优势,但表1中的结果表明,我们在这个阶段的简洁设置比其他反射去除方法获得了更好的结果CoRRN [20]假设反射和背景之间存在严格的线性加性关系。由于该关系可能不存在,因此可能将残余背景边缘引入到估计的反射分量图像。尽管Zhang et al. ’smethod [2004 - 2005两年期的定量评价场景 增强从表2所示的结果来看,我们的方法在所有其他方法中实现了最佳值,这表明所提出的方法在相同的分离反射分量下更好地增强了反射场景的可见性。由于未对准的存在,SSIM和PSNR值不如在其他图像恢复任务中通常观察到的值(例如,图像去噪和去噪)。然而,我们的方法也取得了更好的性能比其他比较的方法。此外,较高的LPIPS值表明,所提出的方法提供了更好的视觉愉悦的结果。场景增强的定性评估定性比较如图6所示。我们提出的方法不仅比其他方法提高了反射场景的可见性,而且还保留了一些细节。2404图6.评估数据集上的增强结果示例 从上到下,输入图像,反射场景的地面真实值,由我们的分离网络估计的反射分量图像(RCI),我们的方法的估计反射场景图像,CycleGAN [31],EnlightenGAN [11]和DPE [4]。RCI乘以5。电影的结尾 虽然CycleGAN也使估计图像比源图像更亮,但它不能处理分离的反射图像中存在的残留边缘(例如,边缘)。图6的第一和第四列)。对于曝光校正方法,如果反射分量图像具有较少的伪影,则它们可以实现校正。可 接 受 的 结 果 ( 例 如 , , 图 6 的 第 三 列 中 的EnlightenGAN [11]和DPE [4]的结果)。如我们之前所讨论的,由于曝光不足图像和反射分量图像之间的暗外观的原因不同,因此曝光校正通常在我们的示例上失败,其中分离的反射图像具有DPEEnlightenGANCycleGAN我们的结RCI地面实况输入2405无颜色损失的混合W\o两阶段框架 完整的模型地面实况图7.没有两阶段框架的结果,没有颜色损失的结果,我们的完整模型的结果,以及相应的地面真实反射场景图像的示例。原始图像输入RCI我们的估计翻转估计周期GAN翻转周期GAN DPE翻转DPE图8.在真实场景中,一个摄像头在玻璃前拍摄的例子。我们展示了我们的方法,CycleGAN [31],DPE [4]及其压缩版本的估计。例如:请不要把食物垃圾扔进水池。表3.对没有提出的完整模型的模型、没有两阶段框架的模型和没有颜色损失的模型的定量评价结果。LPIPSSSIMPSNR我们0.1510.71616.886W/O两阶段框架0.4010.58412.856W/O颜色损失0.1980.67514.875各 种 艺 术 品 例 如 , 在 第 一 列 和 第 四 列 中 由 En-lightenGAN[11]估计的图像仍然包含明显的伪影。DPE[4]的性能不如其他。5.2. 消融研究我们的网络由两部分组成:分离网络和增强网络。在本节中,我们进行了几个实验来评估这两个部分的贡献和平移不变损失的有效性。我们首先移除分离网络,并直接将混合图像输入增强网络。从图7所示的结果来看,单独的增强网络不能有效地从混合图像中恢复反射场景。图7中的量化值也证明了两阶段框架的有效性。然后,我们在平移不变损失中去除颜色损失图7中的结果表明,没有颜色损失的最终估计由于没有颜色不变损失的结果可能引入更多的伪像,因此表3中的其误差度量值不如没有局部不变损失的模型好。5.3. 应用场景除了图6中所示的标准设置拍摄的图像外,我们还在图8中显示了一个示例,该示例是在野生和不受控制的场景下由相机与适当的训练数据和损失函数,我们的方法生成的结果具有更清晰可见的细节。我们的方法成功地从分离的反射成分中恢复句子。另外两个结果中的信息还远远看不见。然而,由于现实世界中的复杂环境,正确部分的估计仍然看起来模糊。6. 结论提出了一种解决反射场景分离问题的方法,旨在从一幅混合图像中恢复出清晰、有意义的反射场景信息。我们首先提出了一种策略来获得这个独特任务的数据集。以未对齐的数据为输入,我们进一步引入平移不变损失来提高鲁棒性。我们的实验表明,这个问题的有希望的结果图8中的结果表明,我们的方法可以进一步用于刑事调查和监视目的。限制. 虽然我们的方法取得了令人满意的结果,但在分离阶段仍然可能失败,特别是当反射和背景相关或具有相似属性时。此外,对于一些反射太弱的图像,我们利用图像修复技术的一些优势,使用特定场景的训练图像优化网络,这可能会削弱我们的方法对一些“看不见”图像的泛化能力。最后,由于我们的评估数据集仅用于概念验证的在未来,我们将提出一个更有效的分离网络,专注于特殊性质的反射。然后,如何提高泛化能力,增加数据集的多样性将进一步研究。2406引用[1] M. Arjovsky,S. Chintala和L.博图 Wasserstein ganarXiv预印本arXiv:1701.07875,2017。4[2] H. Bach和N.神经病光学玻璃的特性。Springer Science Business Media,2012. 2[3] C.陈角,澳-地Chen,J. Xu,and V.科尔顿。学会在黑暗中看东西。在IEEE计算机视觉和模式识别会议论文集,2018年。4[4] Y.-- S. 陈玉-C. 王兆国H. Kao和Y.-Y. 创. 深层照片增强器:基于非配对学习的gans图像增强算法。在IEEE计算机视觉和模式识别会议论文集,2018年。四、六、七、八[5] Q. Fan,J. Yang,G.华湾,澳-地Chen和D. Wipf一个通用的深层架构,用于消除单个图像的反射和图像平滑。arXiv预印本arXiv:1708.03474,2017。2[6] M. Gharbi,J.陈,J.T. Barron,S.W. Hasinoff和F.杜兰德 。 用 于 实 时 图 像 增 强 的 深 度 双 边 学 习 。 ACMTransactions on Graphics(TOG)5[7] 胡杰湖,澳-地Shen和G.太阳挤压-激发网络。在IEEE计算机视觉和模式识别会议论文集,2018年。5[8] A. Ignatov,N. 科比舍夫河 阿夫特河 Vanhoey和L.范古尔使用深度卷积网络在移动设备上拍摄数码单反品质的照片。IEEE International Conference on ComputerVision,2017。5[9] A. Ignatov,N. 科比舍夫河 阿夫特河 Vanhoey和L.范古尔WESPE:弱监督的数码相机照片增强器。IEEE计算机视觉和模式识别研讨集,2018年。5[10] R. Jenkins和C.克尔从角膜反射中提取的可识别的旁观者图像。PloS one,8(12):e83325,2013. 第1、3条[11] Y. Jiang,X.龚氏D.Liu,Y.程角,澳-地Fang,X.沈先生,J. Yang,P. Zhou和Z.王.启迪:无需配对监督的深度光增强。arXiv预印本arXiv:1906.06972,2019。四、六、七、八[12] A. Levin和Y.韦斯使用稀疏先验从单个图像中分离反射的用户辅助IEEE Trans- actions on Pattern Analysis andMachine Intelligence,2007.二、四[13] C. Li和M.魔杖结合马尔可夫随机场和卷积神经网络进行图像合成。在IEEE计算机视觉和模式识别会议上,2016年。5[14] T.- Y. 林,M。迈尔,S。贝隆吉,J.Hays,P.Perona,D.Ra-manan , P.Dolla'r 和 C.L. 齐 特 尼 克Microsoftcoco:上下文中的通用对象。在Proceedings ofEuropean Conference on Computer Vision,2014年。3[15] R.梅赫雷斯岛Talmi和L.泽尔尼克庄园非对齐数据图像变换的上下文损失在2018年欧洲计算机视觉会议上5[16] K. Nishino,P. N. Belhumeur和S. K.纳亚尔利用人眼反射进行变光照下的人脸识别2005年国际计算机视觉会议论文集 3[17] K. Nishino和S.K. 纳亚尔重新点亮的眼睛ACM图形转换(TOG),2004年。3[18] R.万湾,澳-地石湖,澳-地Y. Duan,A.- H. Tan和A. C.科特单图像反射消除算法的基准测试。在计算机视觉国际会议论文集,2017年。3[19] R.万湾,澳-地石湖,澳-地Y. Duan,A.- H. Tan和A. C.科特CRRN:多尺度引导并发反射去除网络。在IEEE计算机视觉和模式识别会议论文集,2018年。2[20] R.万湾,澳-地Shi,H.李湖,澳-地Y. Duan,A.- H. Tan和 A. C. 科 特 CoRRN : 协 同 消 除 反 射 网 络 。 IEEETransactionsonPatternAnalysisandMachineIntelligence,2019。一、二、四、六[21] R. 王,英-地张角W. Fu,X.沈,W.-S. zheng和J. Jia使用深度照明估计的曝光不足照片增强。在IEEE计算机视觉和模式识别会议论文集,2019年。4[22] K. Wei,J.Yang,Y.Fu,D.Wipf和H.煌利用未对准的训练数据和网络增强来去除单个在IEEE计算机视觉和模式识别会议集,2019年。二、五、六[23] J. Wu和Z.纪看不见的东西:从反射中定位物体。在2018年自主机器人系统年会上。第1、3条[24] J. Yang,D.贡湖,澳-地Liu和Q.石深入和双向地观察:一种用于去除单个图像反射的深度学习方法。在欧洲计算机视觉会议论文集,2018年。6[25] T.矢野山Shimizu和M.奥富未校正多层影像之复原与视差估计。IEEE计算机视觉和模式识别会议,2010。3[26] J. Yu,Z. Lin,J. Yang,X. Shen,X. Lu和T. S.煌具有上下文注意的生成式图像修复。在IEEE计算机视觉和模式识别会议论文集,2018年。5[27] Q. Zhang,G.袁角,澳-地肖湖,加-地Zhu和W.- S.郑曝光 不 足 照 片 的 高 质 量 曝 光 校 正 ACM MultimediaConference on Multimedia Conference,2018。4[28] R. Zhang,P.Isola,A.A. Efros、E.Shechtman和O.王. 深度特征作为感知度量的不合理有效性在IEEE计算机视觉和模式识别会议论文集,2018年。6[29] X.张,智-地陈河,巴西-地Ng和V. Koltun。缩放学习,学习缩放。在IEEE计算机视觉和模式识别集,2019年。一、五、六[30] X.张河,巴西-地Ng和Q.尘单一图像反射分离与感知损失。在IEEE计算机视觉和模式识别会议集,2018年。二、四、六[31] J. - Y. Zhu,T.帕克山口Isola和A.A. 埃夫罗斯使用循环一致对抗网络的不成对在计算机视觉国际会议论文集,2017年。六七八
下载后可阅读完整内容,剩余1页未读,立即下载
![rar](https://img-home.csdnimg.cn/images/20210720083606.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![rar](https://img-home.csdnimg.cn/images/20210720083606.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)