没有合适的资源?快使用搜索试试~ 我知道了~
2444学习联合生成和分离反射马代谦1,2,万人杰3,石伯新2,4,Alex C. Kot3,Ling-Yu Duan1,2,4段玲玉北京大学深圳研究生院中国深圳1北京大学视频技术国家工程实验室2新加坡南洋理工大学电气与电子工程学院3深圳鹏程实验室4{madaiqian,shiboxin,lingyu}@ pku.edu.cn,{rjwan,eackot}@ntu.edu.sg摘要现有的使用成对训练数据的基于学习的单图像反射去除方法由于训练对的有限变化而在处理真实世界反射的泛化能力方面具有局限性。在这项工作中,我们提出在弱监督学习框架内联合生成和分离反射,旨在通过丰富的非成对监督更全面地建模反射图像形成。通过引入纠缠和解纠缠机制,该框架将反射的产生和分离这两个独立的阶段巧妙地集成到一个统一的模型中。为了获得更好的性能,图像梯度约束也被纳入到多任务学习的并发训练过程中。特别地,我们建立了一个具有4,027个图像的非成对反射数据集,这对于研究弱监督学习方式下的反射去除问题以及进一步提高模型性能是有用的。在一个公共基准数据集上的广泛实验表明,我们的框架与最先进的方法相比表现良好,并始终产生视觉上吸引人的结果。1. 介绍当通过一块透明玻璃拍摄照片时,伴随背景图像的反射的存在是不希望的除了视觉质量下降之外,反射还通过阻挡和变形玻璃后面的背景场景来阻碍计算机视觉系统的性能。具有反射的图像形成的经典表示被公式化为,M=αB+βR,(1)段凌玉为通讯作者。图1.两个不同的培训管道的插图。S和G表示我们框架中的分隔符和生成器。M、B和R分别表示混合图像、背景和反射。* 表示训练过程中生成的图像其中M、B和R分别表示观察到的具有反射、背景和反射图像的混合图像。这里,α和β是混合系数[5,27,26]。反射去除旨在从M中去除反射R,从而增强背景场景B的可见性。在这种情况下,已经探索了图像先验,例如背景和反射之间的不同模糊水平[26,17],重影效果[22]以及图像中的非局部相似性然而,这些低级图像先验受到引起反射的有限现象的约束 此外,这些方法主要依赖于2445图2.我们收集的未配对反射去除数据集的示例(在各种场景和照明条件下)。混合图像(M)、背景图像(B)和反射图像(R)从左到右示出。在等式1中使用线性加法公式来对混合图像、背景和反射之间的关系进行建模,这可能不能很好地反映真实的相互作用。在实际场景中,真实世界反射的出现是相当复杂的,因为它受到各种因素的相互影响,远远超出了简单的线性组合。例如,非均匀照明条件[12]或玻璃表面的非均匀性[27]可能使公式1无效。因此,具有反射的一般图像形成由下式给出,M=G(B,R),(2)其中G(·,·)是用于生成混合图像的映射函数。It’snot trivial to learn this function最近,已经提出了具有更好的泛化能力的基于深度学习的反射去除方法[24,5],以解决手工制作的图像先验带来的限制。然而,大多数现有方法以监督的方式工作,这需要大量的成对训练数据,即。以包含来自相同场景的完美配准的图像的{M,B,R}最近提出的基准数据集[23]就是一个例子。由于捕获真实世界配对数据的高成本,通常根据等式1中的传统表示来应用合成混合图像,如图1(a)所示。显然,这种策略忽略了现实世界中图像形成过程中的各种因素。特别地,将图像生成和图像分离作为两个独立的阶段处理,如果在训练模型时处理不好这两个阶段的相互影响,会降低模型的性能与以前的方法相比[24,13,5],重-简单地依赖于等式1中的简化模型,并将图像生成和分离视为两个独立的阶段,所提出的模型以联合学习的方式利用图像生成和分离的相互益处以提高鲁棒性。值得注意的是,传统的周期一致性网络,如CycleGAN [30],不能直接应用于反射消除,因为其一对一映射问题的原始设置对于建模反射生成过程的敏感性较低。因此,我们建议将纠缠和解纠缠映射机制之间的混合图像和相关的背景以及反射,这可能有助于更真实的生成结果和更清晰的分离结果。此外,我们引入了梯度约束[5,26]以使模型学习更有效,其中边缘图估计通过多任务学习结构作为辅助任务被巧妙地处理。我们将主要贡献总结如下:• 我们建议在弱监督学习框架内对现实世界的反射图像形成进行建模。通过共同学习产生和分离反射的过程,我们利用丰富但成本较低的不成对监督,实现了增强反射去除性能。• 我们建议将恩坦的机制glement和disentangular,以生成更自然的混合图像,并分别分离更清晰的背景和反射。这也导致一个更灵活的框架,以适应辅助任务,以进一步提高学习模型的鲁棒性。• 我们收集了一幅中等比例尺的反射图像数据集包括4,027个未配对的图像,这有望促进以弱监督学习方式去除反射的研究。2. 相关工作反射移除。几十年来,人们一直在广泛研究去除反射。以前的作品可以是2446CrecC副词B*SGME级M*C副词R*(a)(b)第(1)款图3.我们的框架包含两个映射函数G:(B,R)→M和S:M→(B,R,E),其中M、B和R分别表示真实世界的混合图像、背景和反射* 表示训练过程中生成的图像我们引入了具有两个周期(a)和(b)的三种重建损失循环(a)的重建损失用公式表示为S(G(B,R))≈(B,R),并且来自循环(b)的混合图像的重建损失用公式表示为G(S(M))≈M。E(由Sobel算子计算真实边缘图)是具有L1损失的辅助边缘图估计任务,并且这两个循环中的中间图像的生成由对抗性损失Ladv指导。分为两类。第一类基于手工制作的先验知识解决这个问题,而无需学习。由于不适定的性质,不同的先验被用来利用背景和反射层的属性,包括稀疏先验[15,14],背景和反射层之间的模糊水平差异[17],重影效应[22]和拉普拉斯数据保真度项[1]。该领域中的其他方法借助于多个图像来去除反射。通过利用不同的图像相关线索[2,6],使用多个图像的基于建模的方法显示出更可靠的结果。然而,对特定捕获条件的要求阻碍了这种方法的实际使用,特别是对于移动设备或从互联网下载的图像。另一类尝试以数据驱动的学习方式解决这个问题。深度学习的综合建模能力有利于消除反射问题,并显示出非常有前途的结果。例如,Chandramouliet al. [4]提出了一种两阶段深度学习方法,用于学习光场相机反射的边缘特征。[5]中介绍的框架在训练整个网络时利用边缘信息,以更好地保留图像细节。虽然基于深度学习的方法可以更好地捕获图像特性,但传统的两阶段框架忽略了内在的相关性,这在很大程度上限制了它们的性能。生成对抗网络(GAN)。GAN [7]已经成为图像到图像翻译问题的最成功的方法之一。在GANs中,两个网络同时进行对抗训练,其中,TOR被更新以从生成器的输出中区分出真实样本例如,pix2pix GAN [9]使用cGAN [20]以监督的方式学习翻译任务。为了缓解获得数据对的问题,已经提出了不成对的图像到图像转换UNIT [18]将变分自编码器(VAE)[11]与CoGAN [19]相结合,CoGAN是一种GAN框架,其中两个生成器共享权重以学习跨域图像的联合分布。值 得 一 提 的 是 , 一 些 现 有 的 成 熟 框 架 , 如CycleGAN [30]和DiscoGAN [10],在处理反射去除问题方面受到限制。它们一次只能学习两个不同域之间的关系,其中通过利用循环一致性损失来保留输入和翻译图像之间的毫无疑问,在没有反射的情况下,背景是不可转移到混合图像的。与上述方法不同,我们专门设计的反射去除框架试图学习三个域之间的映射函数,包括反射,背景和混合。3. 不成对反射移除数据集原则上,可以以“移除和遮挡”方式捕获{M,B,R}(混合图像,背景图像和反射图像)的传统三元组[23,28]:1)通过玻璃拍摄混合图像的照片; 2)通过移除玻璃来捕获背景场景的图像;以及C1EC副词E级GSBM*B*CrecR*CrecR2447玻璃后面的黑色纸张。然而,使用“移除和遮挡”方法完美配准的三元组集是相当耗时的,当模型训练需要更多的地面实况数据时,这提供了有限的可扩展性。由于所提出的弱监督训练框架的能力,在收集图像数据集时不需要成对的像素对应。因此,我们捕获了4000多张图像,这允许比现有方法中使用的图像更大的规模[23,28]。最后,我们构建了一个包含各种场景下的4027个图像的数据集,示例图像如图2所示。建议的数据集在以下方面丰富了现有数据集的多样性和通用性:• 装置. 除了使用高端设备(例如,,DSLR相机与全手动控制模型)像以前的方法[23,28],我们也使用不同类型的手机上的相机(iPhone 8,iPhone X等. )来捕捉图像。• 照明。我们在不同的照明条件下捕捉图像。更具体地说,我们在阴天和晴天都能捕捉到反射图像,一天中的不同时间(例如,上午、下午和晚上)和具有不同照明条件的室内场景(例如,办公室、客厅等。).• 现场我们的图像涵盖各种场景,例如:校园,街道,公园,花园。4. 该方法在本节中,我们首先讨论动机和网络架构,然后介绍损失函数最后提出了培训策略。4.1. 建议计划的架构与将图像生成和分离视为两个独立阶段的传统管道[5,29,24]相比,我们提出了一个统一的模型,使得两个阶段之间的相互影响可以使鲁棒性受益。如图3所示,我们的模型包含一个生成器网络来生成混合图像,一个分离器网络来将混合图像分离为背景和反射,以及三个分离器网络来产生对抗损失。当生成元被简化为线性函数时,现有方法[5]可以看作是我们方法的一个特例。如图3所示,我们的框架涉及生成器和分离器的两个特别地,每个循环用作两步转换以将所生成的图像转换回原始图像。在这两个周期中有三个反射损失,旨在将周期一致性约束纳入指导训练过程。此外,与经典的周期一致性图4.不同生成方法的混合图像示例。参考是具有相似反射特性的真实世界混合图像。请注意我们生成的反射与黄色框中捕获的参考图像的相似性。图5.将估计的边缘图与地面实况(GT)边缘图进行比较模型与一对一的框架[30,10],我们提出了一个联合映射机制的基础上的加法关系的混合图像,背景和反射,使整个过程可以建模在一个更好的方式。我们建议的框架详情如下。发电机(G)。我们建议在生成器中设计一个纠缠机制,并给出一个通用的公式,以从背景和反射中获得更自然的混合图像在一般的图像到图像的翻译任务中,生成器主要被设计用于一对一的映射转换。由于混合图像是背景和反射的合成图像这一反射去除问题的本质,传统的一对一映射不能直接将背景转化为混合图像2448AdvAdvprecprecCRECCRECAdvAdvR由于缺乏反射,图像。代替先前方法中的一对一映射,我们的生成器将映射学习为G:(B,R)→M,其中非线性映射可以产生比先前线性映射更真实的反射外观(图41中的第一到第三列)。以区分所生成的伪混合图像G(b,r)和真实世界混合图像m。换句话说,G的目标是最小化这个目标,而对手D则试图最大化这个目标。然后,我们引入两个类似的对抗损失的映射函数S:M→(B,R,E)[5][26][17][18][19][19][19]以及它们的判别式DB和DR:Lb和Lr.分离器(S)。我们通过利用多任务学习来同时估计背景、反射和背景边缘图(E),在分离器中对混合图像执行解纠缠。与以前方法中的一对一框架不同[5,29],我们的分离器学习映射函数S:M→(B,R,E),其中多任务学习框架以更合理的方式对图像分离过程进行建模,特别是边缘图估计的辅助任务,这提供了有用的信息。重建损失。我们采用重建损失的像素和内容域,以更好地保持像素级和特征级的相似性。虽然等式3中的对抗性损失的最小化为了解决这一问题,我们首先采用像素重建使分离器更有效。如图5所示,与边缘图ex.所生成的混合图像Lm的损失像素域中的一致性如下:保存与Sobel算子相结合,我们提出的分离器成功地从反射中去除了梯度信息m精度=Emp数据 (m)[||m − G(S(m))||1]、(4)并保留与背景相关的边缘图。其中G从S(m)中取分离的b和r,并试图重建原始图像m。像素重建网络架构。 发电机和分离器背景和反射损失(L bprec)相似结构:具有两个卷积层的下采样单元,用于增加接收场大小;具有9个残差块的特征提取单元[8],用于提取鲁棒特征;以及最后一级的上采样单元,具有类似的方案,但顺序与G和S相反。另一方面,内容重构损失旨在将整个过程约束在高级特征空间中。所生成的两个转置卷积层。更具体地说,混合图像Lm定义为:该生成器包含两个下采样单元以接收背景和反射的输入,以及具有三个上采样单元(相对的)的多任务学习机制mcrec1=Empdata(m)[WH ||2],||2],(五)到三个任务)用于分离器中以提高反射去除能力。对于鉴别器网络,我们使用70×70PatchGAN [9,16],可以应用于其中φ是来自预先训练的VGG-16网络的relu4 3层的特征图,W和H指示relu4 3层的维度内容重建损失以完全卷积的方式生成任意大小的图像。背景和反射(Lbrcrec)定义4.2. 损失函数这两个映射的学习由对抗损失和重建损失引导,其中训练样本B={bi}K用于背景,R={ri}N用于背景。以类似的方式但以G和S的相反顺序。目标明确最后,优化G和S的目标函数写为:i=1Li=1L=Lm+λLm+λLm,混合物的反射和M={mi}i=1GadvpprecccrecLS=Lbbprecbcrec(六)对抗性损失。 对抗性损失已经被广泛使用 在图像到图像的转换问题上。在这里,请注意-+λr(Lrrprecrcrec)+λeLe,对于映射函数G:(B,R)→M及其判别式DM,目标由下式给出,其中Le是边缘图估计的L1损失,λr和目的是平衡分离器中的主辅任务;并且λ p和λ c旨在平衡像素重建MAdv=Emp数据 (m)[logDM(m)]+(三)损失和内容重建损失。Eb,rpdata(b,r)[log(1 −DM(G(b,r)))],因此,我们的目标是解决:G,S= arg minmaxL+ L。(七)其中G试图生成以背景和反射图像为条件的图像G(b,r),而DM的目标是1补充材料中列出了更多的例子。G SG、S、D、M、D、R、D、B在实验中,λp、λc、λr和λe根据经验设定为10、2、0.5和0.5。L和LL和L+λcL+λpL+λpL+λcLL2449输入图像Groundtruth图6.SIR2数据集中四个野生场景的反射消除结果示例比较方法包括Wan 18 [24]、Zhang 18 [29]、CycleGAN [30]和FY17 [5]。黄色框突出显示了一些明显的差异。表1.使用三种不同的误差度量,用最先进的方法对SIR2SSIMrSSIM PSNR(dB)黎巴嫩镑14 [17] 0.801 0.829粤ICP备16036666号-12017年12月31日2017财年[5] 0.820 0.871 22.51CycleGAN [30] 0.794 0.813 20.10张18 [29] 0.842 0.885 24.012018年12月24日星期一当量(1)0.833 0.880 24.06我们的我们的+Eq.(1)0.870 0.903 24.484.3. 培训战略该模型使用PyTorch2实现。为了向网络注入尺度不变性[21],我们采用多尺寸训练策略,通过输入两种尺寸的图像:粗比例尺336×252,细比例尺224 ×168。学习率在前100个epoch中设置为2×10−4,在接下来的100个epoch中线性衰减为0我们还增加了使用三种不同操作训练数据:图像翻译、剪切和裁剪。mini-batch和momentum的大小分别设置为4和0.9。2http://pytorch.org图7.在表1中的定量评分方面,三种最佳方法(Zhang 18[29],Wan 18 [24]和我们的)对整个SIR2数据集的感知研究结果通过收集30名参与者和100张图像的排名结果来获得统计数据5. 实验为了验证我们提出的方法的有效性,我们使用最先进的反射去除方法对SIR2[23]基准数据集所有结果均根据定量评分和视觉质量进行评估由于反射的区域特性[23],我们还采用SSIMr [21]通过关注局部反射来评估质量CCycleGANFY17Zhang18Wan18我们2450图8.基于SIR2数据集的边缘图丢失和内容重建丢失消融研究的视觉质量比较表2.基于SIR 2数据集的边缘图丢失和内容重建丢失消融研究的数值比较。SSIMrSSIM PSNR(dB)不含Le不含L精密度完整模型0.858 0.892 24.325.1. 与最先进方法的比较该方法与七种最先进的单图像反射去除方法进行了比较,包括Wan 18 [24],Zhang 18 [29],CycleGAN[30],FY17 [5],NR17 [1]、WS16 [26]和LB14 [17]。为了进行公平的比较,我们使用了作者提供的代码,并按照他们的原始论文中的建议设置了参数,我们遵循相同的训练协议,使用我们的数据集重新训练他们的网络。定量比较。与七个国家的最先进的方法的比较进行了三个不同的误差度量。结果总结在表1中,其中显示的数字是SIR2 [23]数据集中所有100组野生图像的平均值特别是,我们的+ 当量(1)这意味着我们设置一个随机变量,并使用来自生成器的概率为0.7的数据和来自公式1的概率为0.3的数据来训练分离器。虽然图4中的左三列显示我们的生成器在突出显示反射部分的同时更好地保留了背景,但由于我们的训练数据集数量有限,生成器的性能可能会下降(参见图4中的第四列因此,为了增加稳定性,我们提议将等式1纳入我们整个框架的设计如表1所示,我们提出的模型ob-bandwidth在PSNR和SSIM方面优于其他方法。较高的客观质量值表明,我们的方法以更好的保真度恢复背景图像。请注意,SIR2数据集中的几乎所有图像都是部分反射图像,因此恢复的背景和原始混合图像之间的全局变化很小。为了解决全局误差度量的局限性,我们手动标记反射主导区域,并根据[21]中提出的评估方法分析评估这些区域中的SSIM值。结果,如表1所示,已经获得了更高的SSIMr结果,这表明所提出的方法可以比现有技术的方法更有效地去除覆盖有反射的区域中的强反射。请注意,我们的框架受到以下事实的启发,即混合图像是生成过程中反射和背景图像的复杂组合,并且我们的目标是以弱超监督的方式显式地对这种机制进行建模。如图6和表1所示,CycleGAN在反射去除任务中表现不佳,因为CycleGAN很难直接学习反射污染图像和无反射图像之间的映射函数反射消除知觉研究。 最近的研究[3] 指出PSNR和SSIM可能并不能准确地告诉感知视觉质量。由于没有专门为反射消除任务开发的合适的误差度量,我们进行了反射消除感知研究,并邀请30名受试者评估SIR2数据集的100张图像的质量特别是,我们专注于表1中报告的用于该感知研究的前三种方法,其程序如下:• 参与者接受了良好的训练,使用常见的反射图像来获得对该任务的一般感觉。• 每个 参与者 是 请求 到 视图 四个im-最左边的图像显示输入的反射污染的图像,然后是由不同的图像生成的三个反射去除的图像。2451图9.与Zhang 18 [29]和Wan 18 [24]相比,真实世界玻璃窗的极端示例插图表3.与FY17 [5],Zhang 18 [29]和Wan 18 [24]在单个Titan XPGPU上大小为224×288的图像的效率比较框架时间(s)FY17 [5]火炬0.0705张18 [29]张量流0.0438[24]第二十四话PyTorch0.3488我们的[29]PyTorch0.0214输入方法以随机顺序显示。他们在没有任何时间限制的情况下对反射去除质量进行排名。该测试针对100组进行。• 根据下式计算用于该方法的平均得分φ:排名为φ =1(N−rank+1),5.3. 效率分析为了评估效率,我们在单个Titan XP GPU上记录了大小为224×288的图像的平均结果示于表3中。特别是,Wan18 [24]提出的SSIM引导损失表现良好,而我们的方法更有效(快15倍),并实现了更高的PSNR值。6. 结论和讨论在本文中,我们提出了一种新的方法,联合生成和分离的反射。基于公共数据集SIR2 [23]和拟议的真实世界数据集,我们的方法kNiji,j,k在两个方面都优于最先进的方法其中N是评估方法的总数,i、j、k分别表示第i个参与者、第j组图像和第k图7中的结果显示,我们的方法的秩-1数甚至高于其余两种方法的总和,并且我们的方法的秩-3数明显更小,这证明了我们的方法的优越的感知此外,从图6的结果中,我们可以发现我们的方法更有效地去除了反射,并更清晰地恢复了背景图像的细节应该注意的是,在第三行中,我们的方法能够去除正确的自动售货机上的反射,这甚至比地面真相更清楚。5.2. 消融损失除了基本的循环一致性与像素结构损失,我们进一步应用的内容重建损失和边缘图损失,以提高性能。为了分析这两个损失函数对最终性能的贡献,我们删除了最终目标函数中的相对损失,并重新训练网络。结果如图8和表2所示。在没有边缘图损失的情况下,我们注意到反射图像的可见内容出现在背景预测中。此外,内容再现损失有助于恢复更干净和更自然的结果(第二行中所示的字符这些结果说明了引入这些损失函数的必要性。量化和主观质量。今后的工作仍有若干未决问题。在一些极端情况下,如图9,整个图像可以由反射主导,我们的方法不能完全去除反射,并且估计的背景仍然保留有一些可见的残留边缘。然而,即使在这种具有挑战性的情况下,我们的方法仍然去除了反射的主要部分并恢复了背景细节,这比其他最先进的方法表现得更好。此外,当使用不同的收集协议(例如,SIR2 [23]的数据集和Zhang 18 [29]的数据集),我们已经观察到数据集差距问题值得进一步研究,以在各种真实世界场景中实现相当好的性能。同时,所提出的框架可以以各种方式进一步扩展,以促进其他图像恢复任务(例如,图像恢复)。、去光、去雾、去阴影等。),这也为未来的探索留下了更多的空间。鸣谢本工作得到了国家自然科学基金61661146005、U1611461和61872012的部分由 深 圳 市 科 技 计 划 资 助 , 资 助 号 为 JCYJ20170818141146428,部分由新加坡总理办公室国家研究基金会资助,资助号为NRF 2016 NRF-NSFC 001 -098。万人杰是由微软云研究软件奖学金(CRSF)计划的支持。2452引用[1] NikolaosArvanitopoulos 、 RadhakrishnaAchanta 和SabineS üsstrunk。 单图像反射抑制。在Proc. CVPR,2017中。[2] Erfrat Be'Ery和Arie。耶雷多基于参数化联合对角化的叠 加 移 位 图 像 盲 分 离 。 IEEE Transactions on ImageProcessing,17(3):340[3] 约柴·布劳和托莫·麦克利。感知失真的权衡。在Proc.CVPR,第6228-6237页[4] Paramanand Chandramouli 、 Mehdi Noroozi 和 PaoloFavaro。全光图像的基于卷积网络的深度估计、反射分离和去模糊。在Proc. ACCV,2016年。[5] Qingnan Fan , Jiaolong Yang , Gang Hua , BaoquanChen,and David Wipf.一个通用的深度架构,用于消除单个图像反射和图像平滑。InProc. ICCV,2017.[6] 盖坤、石振伟、张长水。利用图像统计的叠加运动图像的盲IEEE Transactions on Pattern Analysis and MachineIntelligence,34(1):19[7] 伊恩·古德费洛、让·普盖特-阿巴迪、迈赫迪·米尔扎、许冰、大卫·沃德-法利、谢尔吉尔·奥扎尔、阿伦·库维尔和约舒亚·本吉奥。生成性对抗网。在NIPS,2014。[8] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习。在Proc. CVPR,2016中。[9] Phillip Isola,Jun-Yan Zhu,Tinghui Zhou,and Alexei AEfros.使用条件对抗网络的图像到图像翻译。arXiv预印本,2017年。[10] Taeksoo Kim、Moonsu Cha、Hyunsoo Kim、JungkwonLee和Jiwon Kim。学习发现与生成对抗网络的跨域关系。arXiv预印本arXiv:1703.05192,2017。[11] Diederik P Kingma和Max Welling。自动编码变分贝叶斯。arXiv预印本arXiv:1312.6114,2013。[12] N. 孔,Y。Tai和J.S. 信基于物理的反射分离方法:从物理 建 模 到 约 束 优 化 。 IEEE Transactions on PatternAnalysis and Machine Intelligence,2014。[13] Donghoon Lee , Ming-Hsuan Yang, and Songhwai Oh.生 成 的 单 个 图 像 反 射 分 离 。 arXiv 预 印 本 arXiv :1801.04102,2018。[14] Anat Levin和Yair Weiss。用户辅助分离反射从一个单一的图像使用稀疏先验。《欧洲法院民事诉讼程序》,2004年。[15] Anat Levin和Yair Weiss。用户辅助分离反射从一个单一的图像使用稀疏先验 。IEEE Transactions on PatternAnalysis and Machine Intelligence,29(9),2007。[16] Chuan Li和Michael Wand。利用马尔可夫生成对抗网络进行预计算实时纹理合成在Proc. ECCV,2016中。[17] Yu Li和Michael S.布朗使用相对平滑度的单个图像层分离。在Proc. CVPR,2014。[18] Ming-Yu Liu,Thomas Breuel,and Jan Kautz.无监督图像到图像翻译网络。在NIPS,2017年。[19] 刘明宇和昂塞尔·图泽尔。耦合生成对抗网络。在NIPS,2016年。[20] Mehdi Mirza和Simon Osindero条件生成对抗网。arXiv预印本arXiv:1411.1784,2014。[21] Liangqiong Qu , Jiandong Tian , Shengfeng He ,Yandong Tang,and Ryson W.HLau. Deshadownet:一种用于 阴影消除 的多上 下文嵌 入深度网 络。在Proc.CVPR,2017中。[22] YiChang Shih , Dilip Krishnan , Fredo Durand , andWilliam T. 弗 里 曼 。 使 用 重 影 提 示 消 除 反 射 。 在Proc.CVPR,2015中。[23] Renjie Wan , Boxin Shi , Ling-Yu Duan , Ah-HweeTan,and Alex C.科特单图像反射消除算法的基准测试InProc. ICCV,2017.[24] Renjie Wan , Boxin Shi , Ling-Yu Duan , Ah-HweeTan,and Alex C Kot.CRRN:多尺度引导并发反射去除网络。在Proc. CVPR,2018中。[25] 万人杰,施博新,谭阿华,亚历克斯C.科特使用外部补丁搜索基于稀疏性的反射消除。InProc. ICME,2017.[26] Renjie Wan,Boxin Shi,Ah Hwee Tan,and Alex C.科特场深度引导的反射消除。InProc. ICIP,2016.[27] Patrick Wieschollek,Orazio Gallo,Jinwei Gu,and JanKautz.在野 外分离 反射和 透射图 像。 Proc. ECCV,2018。[28] 薛天凡,迈克尔·鲁宾斯坦,刘策,威廉·T.弗里曼。无障碍摄影的计算方法。ACM Transactions on Graphics(TOG),2015年。[29] Xuaner Zhang,Ren Ng,and Qifeng Chen.单一图像反射分离,感知损失。Proc. CVPR,2018.[30] Jun-Yan Zhu , Taesung Park , Phillip Isola , Alexei AEfros.使用循环一致对抗网络的不成对图像到图像翻译。InProc. ICCV,2017.
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 利用迪杰斯特拉算法的全国交通咨询系统设计与实现
- 全国交通咨询系统C++实现源码解析
- DFT与FFT应用:信号频谱分析实验
- MATLAB图论算法实现:最小费用最大流
- MATLAB常用命令完全指南
- 共创智慧灯杆数据运营公司——抢占5G市场
- 中山农情统计分析系统项目实施与管理策略
- XX省中小学智慧校园建设实施方案
- 中山农情统计分析系统项目实施方案
- MATLAB函数详解:从Text到Size的实用指南
- 考虑速度与加速度限制的工业机器人轨迹规划与实时补偿算法
- Matlab进行统计回归分析:从单因素到双因素方差分析
- 智慧灯杆数据运营公司策划书:抢占5G市场,打造智慧城市新载体
- Photoshop基础与色彩知识:信息时代的PS认证考试全攻略
- Photoshop技能测试:核心概念与操作
- Photoshop试题与答案详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)