没有合适的资源?快使用搜索试试~ 我知道了~
1在黑暗陈晨UIUC陈启峰明湾做UIUCVladlenKoltun IntelLabs摘要深度学习最近被应用于极端低光成像,取得了令人印象深刻的结果尽管单图像处理取得了成功收集长时间曝光的地面实况,如单图像处理所做的那样,对于动态场景是不可行的。在本文中,我们介绍了非常暗的原始视频的深度处理:照度为1勒克斯。为了支持这一系列工作,我们收集了一个新的原始低光视频数据集,其中以视频速率捕获高分辨率原始数据。在这种黑暗程度下,信噪比非常低(如果以dB测量,则为负),传统的提出了一种新的方法来解决这个具有挑战性的问题。通过仔细设计基于学习的管道并引入新的损失函数来鼓励时间稳定性,我们在静态原始视频上训练了一个siamese网络,对于这些视频,地面真实是可用的,这样网络就可以在测试时推广到动态场景的视频。实验结果表明,所提出的方法优于国家的最先进的模型的突发处理,每帧处理,和盲目的时间一致性。1. 介绍我们感兴趣的是在黑暗中捕捉动态场景的视频:人们在月光下跳舞,烛光下的亲密交谈,夜间觅食的动物。这样的场景能被广泛使用的消费级相机有效地捕捉到由于光子计数低,极低光摄像具有挑战性使用高ISO可以增加亮度,但也会放大噪点。光圈大小在消费级相机和移动设备中是有限的。闪光灯改变了场景的特征,对摄像来说是个问题。并且长曝光时间(秒或几十秒)对于动态场景的视频是不可行的。这给我们留下了用于低光视频处理的计算技术。研究人员已经开发了许多技术来减少低光成像的噪声[40,38,13,33,16,11,20,45,46、3、8、29、22、47]。这些技术通常假设图像是在具有中等噪声水平的稍微暗淡的环境中捕获的。此外,这些方法通常使用合成噪声模型进行训练和评估,这些模型不能反映极端低光条件下出现的严重量化、偏差和削波。最近的工作提出了用于低光图像处理的端到端学习[9,41]。这个想法是在短曝光原始图像和长曝光参考图像的数据集上训练一个深度网络,这样网络就可以学习图像处理管道,以最大限度地提高低光成像性能。然而,这些数据集包含静态场景的图像并且不处理视频,并且训练的网络表现出时间不稳定性,这不容易用事后时间一致性增强来补救。另一种最近取得重大进展的低光摄影方法是连拍处理[18,28,35,15]。然而,这些方法通常不被设计用于视频捕获(例如,由于使用了在本文中,我们解决了从原始传感器数据到sRGB输出的极低光视频的深度处理这带来的挑战超出了单个低光图像所带来的挑战。例如,不能获得动态场景的长曝光视频,因为必须以视频速率获取视频。因此,黑暗动态场景的“地面实况”长曝光视频不可用。因此,不清楚如何训练在该机制中产生时间上一致的输出的模型。为了研究这个问题,我们收集了一个新的低光视频数据集,并提出了一个系统的方法来解决这个问题。我们捕获了202个静态原始视频用于训练和评估,每个视频都有相应的长曝光地面实况。我们还捕捉真实世界的低光视频与手抖动和主体运动。对于这些视频,长时间曝光的地面真相是不可用的,它们被用于感知实验。使用收集的数据,我们开发了一个新的基于学习的管道,用于极低光视频处理。所提出的方法涉及训练一个深度连体网络[6],该网络具有特别设计的损失,以促进时间稳定性。我们表明,该网络可以在静态视频上训练,但泛化31853186到动态场景。实验结果表明,我们的方法显着优于国家的最先进的approaches,作为衡量基于参考的失真metrics以及参考的感知研究。2. 相关工作单幅图像去噪。图像去噪已被广泛研究[40,38,13,33,16,11,20]。大多数方法都是基于特定的图像先验,如平滑,稀疏,低秩,或自相似性。近年来,基于学习的方法进一步提高了性能[46,3,10,8,29,22,47,7]。Lehtinen等人[26]表明,如果噪声是无偏的,则可以在没有干净的地面实况的情况下训练去噪网络。一些网络可以联合对图像进行降噪和去噪[21,14],甚至取代大部分图像处理管道[9,41]。然而,如我们的实验中所示,当应用于视频时,逐帧处理可以表现出显著的时间伪影多幅图像去噪。当视频或突发图像可用时,可以使用空间和时间相关性来减少噪声。Liu et al. [28] andHasinoff et al.[18]提出通过鲁棒且有效的对准方法来合并图像的突发。Godard等人[15]建议使用递归网络进行多帧去噪,其中突发序列需要被预扭曲到参考帧。Mildenhall等人[35]建议通过学习的每像素内核对齐和去噪突发。在这些工作中,突发去噪涉及参考图像选择并输出单个帧。相比之下,视频去噪更具挑战性,因为需要处理输出视频的每个帧,这需要在时间上一致。最先进的视频去噪方法包括VBM4D [32]和非局部贝叶斯[25],它们依赖于对相似的补丁进行分组并对其进行联合过滤以形成结果。当噪声较小或中等时,这些方法可以取得优异的效果。然而,这些方法没有解决由于限幅和量化而存在于极低光数据中的偏差。低光图像和视频增强。方法 已经开发出可以增强在适度昏暗的环境中获取的图像和视频的亮度和对比度[12,34,30,36,17,31]。然而,这些方法通常假设图像细节保留在sRGB相机输出中。相比之下,在我们考虑的极端低光环境中,这些模型无法解决图像处理流水线中的相关挑战,例如,噪声和色偏。噪声图像数据集。 传统上,图像和视频去噪数据集是使用合成图1.来自数据集的示例视频。对于每个视频,第一图像是长曝光参考图像。后面的帧是短曝光图像,在极端低光条件下是暗请注意,第二行中的最后两个视频来自测试集,其中包含动态场景。由于主体和相机运动,参考长曝光图像是模糊的,因此不能作为定量评估的基础事实噪声模型,如高斯和泊松噪声,应用于清洁图像和视频;请参阅Plotz和Roth的评论[37]。最近,使用成像传感器产生的真实噪声图像创建数据集。这些数据集包括 RENOIR 数 据 集 [4] 、 达 姆 施 塔 特 噪 声 数 据 集(DND)[37]、智能手机图像去噪数据集(SIDD)[2]和黑暗中见(SID)数据集[9]。突发图像数据集[28,18,15]也已用于低光图像去噪;然而,突发是短的(少于10帧)并且场景运动是小的。我们收集了一个新的极端低光原始视频数据集,每个视频最多110帧。据我们所知,这是第一个具有真实世界低光原始视频序列的公共数据集。3. 暗原始视频数据集由于有限的可用数据,原始视频处理很少被研究我们收集了一个新的Dark Raw Video(DRV)数据集来弥补这一差距。我们使用的是索尼RX100 VI相机,它可以在连拍模式下以大约每秒16到18帧的速度捕获原始图像序列这相当于20 fps的5.5秒视频。保留地-Bayer图像的分辨率为3672×5496。数据集包含室内和室外场景。基于学习的原始视频处理的另一个挑战是难以在黑暗条件下收集无噪声视频根据SID数据集[9],我们捕获了低光原始数据和相应的长曝光图像。然而,这个方案只适用于静态场景.因此,我们收集了两组视频:一个包含具有相应的长曝光地面实况的静态视频,而另一个包含没有地面实况的动态视频。我们假设在静态视频上训练的模型可以在一定程度上通用于动态视频。示例如图所示。1.一、数据集中的大多数场景都在0.5到3187R5勒克斯范围。为了收集静态视频,我们使用了三脚架,并通过移动应用程序远程控制相机。长曝光和短曝光图像序列完美对齐。我们有202个静态视频用于培训和定量评估。我们将它们随机分为大约64%用于培训,12%用于验证,24%用于测试。某些场景处于不同的照明条件(例如,具有不同色温、照度和位置的光源)。同一场景的视频分布在100十比一10-210- 310- 4-10 - 5 0 5 10噪声像素/真实像素训练、测试和验证集,但不跨这些集。我们捕获一组单独的动态视频序列。运动是由于场景运动、相机运动或两者。这些视频没有地面实况长期曝光参考。它们用于知觉实验。静态组中的原始低光输入与长曝光地面实况之间的曝光差异在120与300的因子之间。我们在预处理中基于这些曝光比率对低光原始帧应用数字增益,以匹配相应长曝光图像的亮度。噪声分析我们分析了DRV数据集中的噪声分布,并将其与最近工作中使用的合成噪声模型进行了比较[35]。在合成模型中,假设噪声像素根据下式分布:x p<$N(y p,σ2+ σ s y p).(一)这里xp是噪声观测值,yp是真实像素值,σr和σs是读取噪声和散粒噪声的参数。为了模拟合成噪声进行比较,我们对σr和σs使用与[35]相同的采样策略。通过首先减去黑电平然后施加上述数字增益来线性化低光数据。在此之后,经处理的输入的整体强度(And因此是合成噪声模型,其被应用于用于比较的地面实况。比较如图所示。二、该图显示了与合成噪声模型的分布相比的真实数据的分布通过Parzen密度估计来估计分布完全干净的数据将对应于1处的delta从图中可以看出,合成噪声模型关于1对称。另一方面,我们真实的低光数据是严重偏差的,部分原因是剪切和量化。例如,在零处存在峰值,因为许多传感器读数太弱并且即使在14位原始传感器数据中也被量化为零此外,DRV数据中的噪声比合成模型预测的噪声强一个数量级。(Note在对数标度上绘制密度,并在非常高的噪声比(例如-10和10)下观察数据。总体而言,合成模型的平均信噪比(SNR)为18.59 dB,而图2. DRV数据集中的真实低光噪声与合成噪声模型([35]中使用)之间的比较。X轴是噪声原始像素与对应的地面真值之间的比率Y轴是通过核密度估计计算的数据集中所有像素的这些比率的归一化密度。请注意,Y轴为对数刻度。我们的低光数据中的噪声强一个数量级,并且表现出严重的非单调偏差。在实际数据中,它是-3.24 dB。也就是说,我们的低光数据中的SNR(以dB为单位测量)是负的。4. 方法原始图像和视频处理涉及整个图像处理管道。系统需要仔细设计,这与应用的机器学习算法一样重要。Brooks等人验证了精心设计的原始图像处理系统可以显著改善结果,而不会显著改变网络结构和损失函数[7]。我们认为低光视频处理系统需要以下标准:a). 从生开始。在我们的极端低光数据集中,原始传感器读数非常弱。在8位JPEG相机输出中,大部分信号被破坏,大部分像素值被量化为零。我们把14位的原始数据帧作为输入。b).模型图像处理管道。一个成功的模型应该在训练过程中照顾图像处理管道[9,7]。我们从原始数据到最终的sRGB输出训练网络,避免了多步优化造成的误差积累。c). 空间和时间去噪。应该利用空间和时间相关性来减少噪声。d). 概括。虽然地面实况仅适用于DRV中的静态序列,但经过训练的模型必须推广到动态视频。e). 时间一致性。输出视频应该是时间稳定的,没有明显的闪烁伪影。根据这些要求,我们设计了一个新的基于学习的管道,使用深度网络来处理极低光照的视频。培训的概要见图。3.第三章。首先,对原始拜耳视频帧进行预处理。预处理包括Bayer到原始RGB的转换、黑电平相减、面元合并我们的数据R我们的数据G我们的数据B突发数据R突发数据G突发数据B密度3188RL预处理LrLcLrResUnetResUnet拜耳原始视频原始RGB视频两个随机帧共享权重网络输出地面实况图3.我们的方法的整个训练阶段都是在静态视频上进行的。和全球数字增益。拜耳数据被分成单独的RGB通道,以形成原始RGB,其中绿色通道是通过对每个2 × 2块中的两个绿色像素求平均来获得的。我们通过应用2×2合并来权衡图像质量的分辨率,这是一种常见的方法。低光成像策略,适用于所有实验中涉及的方法。像素值基于曝光值(EV)差异进行线性缩放,并进行此外,VBM4D [32]在不需要训练数据的情况下减少了时间噪声,这适用于静态和动态视频。在极端噪声条件下,几乎不可能准确估计密集对应,这在一些实验方法[27,18,15]中是需要的,但在我们的系统中不是这些预处理阶段后的结果如图所示。3作为“原始RGB视频”。由于Bayer模式在预处理过程中已被破坏,因此不应用去马赛克。预处理的原始RGB帧被馈送到深度网络,该深度网络被训练以执行获得在地面实况图像中展示的结果所需的所有后续处理。网络将单个帧作为输入。为了训练,从DRV中的静态序列中随机采样两帧,并以连体方式馈送到网络模式设Y 1和Y2表示这两个帧,该序列的地面真值由Y表示。该训练对的损失定义如下:恢复损耗Lr促使输出接近地面实况。然而,仅仅这一点还不足以实现时间一致性。在特征空间中,两个输出到地面真值的距离可能相同,但可能很远彼此之间这对应于时间不稳定性(闪烁)。为了减轻时间不稳定性,我们使用了自我一致性损失,它鼓励两个输出彼此接近。网络在sRGB空间中产生输出。 我们使用类似于[24]的ResUnet结构,将16个残差块[19]添加到Unet [39,9]。我们的方法很容易满足前面讨论的第一个和第二个标准。在VBM4D的预处理中,利用空间和时间相关性进行降噪其他节奏过滤器也可以用于此目的,尽管没有尝试过。然后,经过训练的网络可以适应预处理输入的特征,并在给定输入的情况下优化保真度。在训练过程中使用的连体网络和自我一致性损失,鼓励网络产生节奏稳定的输出。(正如我们将在实验中看到的那样,这种时间稳定性特征在测试时延续到动态视频中。由于网络在测试时对单个帧进行操作,因此它可以推广到动态视频。4.1. 实现细节我们使用Tensorflow [1]实现我们的方法。我们发现,在完整的图像上训练,而不是在补丁上训练,L(Y( 1,Y( 2,Y*))=L+L,(2)C对于捕获全局统计数据是重要的(例如,用于白平衡)。 我们在Nvidia Tesla V100 GPU32 GB的内存。 我们使用亚当优化器[23]其中,Lr被称为恢复损耗,Lc为称为自我一致性丧失。它们被定义为:低点:并且批量大小为1。初始学习率为10−4,在500个epoch之后降低到10−5我们训练网络1000个epoch。我们使用输入ΣLr=LΣΦl(YNk=1, 2(三)“conv2 2”, “conv3 2”, and “conv4 2” layers of the VGGnetwork as features in theL=<$λ<$Φl(Y< $1)−Φl(Y< $2)<$$> 。(四)4.2. 讨论备选方案cNlL1密集的通信。一些现有方法依赖于预扭曲[28,18,15]或学习对齐[35]以减少13189这里,Φ1表示第1层处的VGG [42]特征,并且N1是这样的特征的数量。λ是一个正则化参数,根据经验将结果设置为0.05噪音时间几乎所有的光流方法都假设输入帧中几乎没有噪声。然而,这个假设在我们的背景下被打破了即使3190(a)(b)( c ) 第(1)款图4.预处理的原始RGB图像上的光流。 (a)和(b) 是来自动态DRV序列的两个连续帧在这个序列中,带有文本符号的节拍器正在滴答作响,而场景的其余部分是静态的。(c)两帧之间的光流,由PWC-Net [43]估计该流程包含重大错误。虽然使用VBM4D进行预处理,但是仍然存在大量噪声和伪影。图图4显示了使用最先进的PWC-Net [43]对我们的数据(动态序列)估计的光流流程存在重大错误。这表明在我们的条件下,稠密流估计是有问题的去噪后进行颜色转换。另一种选择是学习联合对齐和去噪[35],然后进行后续的流水线处理(例如,从原始RGB映射正如我们将在受控实验中看到的,这种解耦处理是次优的,因为后面的处理阶段不能最佳地适应提供给它们的输入在实践中,后期处理阶段显著地放大了来自早期阶段的误差。时间一致性。另一种可能性是增强后处理中的时间一致性。现有方法使用输入视频来指导这种增强[5,24]。基本假设是输入视频在时间上是一致的。这在我们的情况下是不正确的由于SNR极低,输入视频在时间上不稳定。将最先进的时间一致性技术应用于我们的数据(例如,SID [9]用于每帧处理,然后是学习的盲时间一致性[24])因此产生严重的可见伪影,如图所示。五、(a)(b)第(1)款图5.(a)SID的结果[9]。(b)将学习的盲节奏一致性[24]应用于后处理,导致可见伪影。注意球上的蓝色斑块。5. 实验5.1. 实验装置真正的相机处理管道往往是商业秘密。根据现有的工 作[9], 我 们 使 用 简 化 的管 道 Rawpy ( LibRaw 的Python包装器)作为传统的非基于学习的管道的参考。长曝光的原始图像由Rawpy处理以形成sRGB地面实况。我们使用地面真实原始数据的元数据这有益于传统的流水线,因为白平衡估计在低光条件下更差。对于我们的方法和SID [9],我们使用预处理的低光照原始帧作为输入,并学习在不需要元数据的情况下转换颜色。作为我们的基线之一,我们使用作者提供的代码训练内核预测网络(KPN)[35],用于空间和时间去噪;去噪结果之后是Rawpy以产生sRGB输出。VBM4D [32]和KPN都使用8帧进行时间去噪。5.2. 图像质量评价我们在静态测试视频上评估了不同的方法。使用峰值信噪比(PSNR)和结构相似性指数(SSIM)将输出视频的第5帧与地面实况进行比较[44]。整个测试集的平均结果列于表1中。我们的方法显著优于基线。消融证实了时间预处理和连体网络的好处表1.静态视频测试集上图像质量的定量评价。峰值信噪比(dB)SSIM输入+Rawpy12.940.165[32]第三十二话14.770.315[35]第三十五话18.810.540SID [9],不带VBM4D27.320.790SID [9]27.690.803我们28.260.815Ours w/o暹罗27.660.805[32]第三十二话27.620.803我们的w/o两者27.260.793一个例子如图所示。六、在此黑暗环境中,当曝光时间固定为1/30秒时,相机输出几乎完全为黑色。对原始RGB图像应用数字增益,如图所示。6(b),揭示了内容,但也放大了噪音和偏见。如图如图6(c)所示,传统的图像处理流水线导致色偏,其中红色和蓝色通道通过白平衡增强。VBM4D [32]可以在一定程度上消除噪声,但不能纠正色偏。如图6(f),KPN学习去除原始颜色中的噪声3191(a) 相机JPEG输出(b)Raw RGB with gain(c)传统管道(b)(d)VBM4D(b)(e)(d)上的传统管道(f)上的KPN去噪(b)(g) (f)(h)SID上的传统管道(i) 我们的(j)地面实况图6.这是一个用索尼RX100 VI相机拍摄的夜间序列的例子,光圈为f/4,ISO 2000和1/30秒曝光。这是一个静态DRV序列,因此地面实况可供参考。放大查看详细信息。空间然而,如图如图6(g)所示,当传统流水线将原始颜色转换为sRGB并增加图像对比度时,其显著地放大了残余误差。这表明,独立去噪之后的传输流水线是次优的。去噪阶段会留下一些残余噪声,这些噪声可以通过后续处理来增强我们的方法是端到端训练的 , 以 避 免 这 种 错 误 累 积 。 与 我 们 的 结 果 相 比(图)。[9]在天空和墙上有很强的伪影。6(h))。由于SID是最强的基线,我们进一步比较在Fig.8. 虽然SID具有很强的去噪能力,但有时会出现变色伪影。例如,图中的“声音”和“每日邮报”中的字母。8(a)(顶部)转变为黄色色调。在图8(a)(底部)中,绿色的盒子和橙色的书在中间失去了颜色这种伪影在SID数据集[9]上发生的频率较低,由更昂贵的相机以更长的曝光时间(高达1/10秒)捕获,但在DRV数据集中发生得更突出。虽然SID和我们的方法使用相同的输入,但我们的结果始终具有更高的质量。5.3. 视频质量评价我们进一步评估SID和我们的方法的视频质量。采用[24]的方法,我们在静态测试视频上使用PSNR,SSIM和平均绝对误差(MAE)测量每对连续帧的时间误差。我们使用术语时间PSNR(TPSNR),时间SSIM(TSSIM)和时间MAE(TMAE)来区分时间变量和单图像度量。结果如表2所示,其中图像缩放至[0,1]以进行TMAE计算。该表表明,我们的方法有更低的时间错误比SID。我们发现,较大的λ导致较小的时间误差,但以较低的空间精度为代价,如图所示。7.第一次会议。λ=0。05被用作我们结果的默认值。表2. SID和我们的方法的静态视频测试集上的时间误差。TPSNRTSSIMTMAE(dB)(×102)SID [9],不带VBM4D33.720.9391.56SID [9]37.050.9611.05我们38.310.9740.89Ours w/o暹罗37.760.9690.98Ours w/o VBM4D34.640.9531.38我们的w/o两者34.550.9521.4039.53938.53827.5 28 28.5PSNR图7.参数λ权衡了空间和时间精度。=0.01=0.05=0.2=0.5TPSNR3192(a) (b)我们的(c)地面实况图8.在两个示例中与SID [9]的图像质量比较注意在分界区域中的变色伪影0.50.40.30.20.1(a)SID帧t(b)SID帧t+1(c)SID错误映射00.50.40.30.20.10(d)我们的框架t(e)我们的框架t+1(f)我们的错误映射图9.静态视频上两个连续帧的视觉结果。误差图显示了通过[0,1] sRGB空间中的欧几里得距离测量的每像素误差。越亮意味着误差越大。虽然输入帧是静态的,但由于随机噪声,它们包含我们进一步可视化图中的时间误差图9示出了来自静态DRV序列的两SID结果以变色的形式表现出时间不稳定性。我们的方法更稳定。5.4. 感知评估我们进行了一个感知实验,比较SID和我们的方法对动态视频的结果。在盲随机A/B测试中,我们展示相应的视频对,并要求工作人员指出两个视频中哪一个质量更好。顺序在配对内和配对间都是随机的。34名工人参与了实验,对10个动态视频序列的结果进行了排名。图10示出了31931008060402001 2 3 4 5 6 7 8 9 10视频(a) iPhone X视频帧图10.知觉实验。10个动态视频的盲随机A/B测试结果。该图显示了每个视频的首选百分比。结果总的来说,工作人员在84. 12%的对比。结果在p10−3时具有统计学显著性。5.5. 极限成像最后,我们证明了我们的方法定性图。11个国家。来自iPhone X和Sony RX100 VI相机视频模式的视频可供参考。在这个模拟的生日派对视频中,照明是由一支蜡烛提供的。这是次勒克斯设置。iPhone视频是使用自动模式拍摄的。对于索尼视频,我们将曝光时间固定为1/30秒,同时保持最大光圈和ISO。SID和我们的方法的原始图像序列是用ISO 2000在连续拍摄模式下捕获的光强度与到光源的距离的平方成反比。我们在图中看到。11(a,b)在iPhone和索尼的序列中,只有生日女士可以(模糊地)在图像中辨认出来。SID和我们的方法都揭示了整个场景。然而,SID结果遭受空间和时间伪影,而我们的结果更干净,更稳定。这是视频#10在知觉实验(图。 10),其中94. 1%的比较结果支持我们的结果。鼓励读者观看补充录像.6. 结论我们提出了一种新的数据集和一种新的学习方法,用于极端低光视频处理。我们提出了一种连体网络,它可以在保留颜色的同时显着抑制空间和时间伪影。该模型仅在静态视频上进行训练,但被证明可以推广到动态视频。定量和定性结果表明,我们的方法在一系列基线上实现了卓越的虽然改进是显著的,但某些故障模式仍然存在。例如,我们的方法(以及基线)完全失败的月光视频(约0.01-0.03勒克斯)使用相同的凸轮-(b) 索尼摄像机视频框(c) SID结果(d) 我们的结果图11.一个动态场景的视频点燃了一个单一的蜡烛。在寿星女士的耳朵处的照度为0.73勒克斯时代此外,由于预处理以匹配地面实况,我们没有保留高动态范围。图中蜡烛周围的区域11、过度暴露令人兴奋的工作仍然是进一步推动边界的计算低光成像。我们Sid得票率(%)3194引用[1] Mart´ın Abadi, Paul Barham , Jianmin Chen , ZhifengChen , Andy Davis , Jeffrey Dean , Matthieu Devin ,Sanjay Ghe-mawat,Geoffrey Irving,Michael Isard,etal. Tensorflow:一个大规模机器学习系统。在OSDI,2016。4[2] Abdelrahman Abdelhamed,Stephen Lin,and Michael SBrown. 智 能 手 机 摄 像 头 的 高 质 量 去 噪 数 据 集 。 在CVPR,2018年。2[3] 放大图片作者:Michael R. Anderson,and Honglak Lee.自适应多列深度神经网络及其在鲁棒图像去噪中的应用。在NIPS,2013年。一、二[4] Josue Anaya和Adrian Barbu雷诺阿-一个真实的低光图像降噪数据集。arXiv:1409.8230,2014年。2[5] Nicolas Bonneel,James Tompkin,Kalyan Sunkavalli,De- qing Sun,Sylvain Paris,and Hanspeter Pfister.盲视频时间一致性。ACM TOG,34(6),2015. 5[6] Jane Bromley、Isabelle Guyon、Yann LeCun、Eduard S ¨ckinge r和RoopakShah。使用“连体”时间延迟神经网络的签名验证NIPS,1994年。1[7] Tim Brooks , Ben Mildenhall , Tianfan Xue , JiawenChen,Dillon Sharlet,and Jonathan T Barron.未处理图像,用于学习的原始去噪。在CVPR,2019年。二、三[8] HaroldCBurger 、 ChristianJSchuler 和 StefanHarmeling。图像去噪:普通神经网络能与bm3d竞争吗?CVPR,2012。一、二[9] Chen Chen,Qifeng Chen,Jia Xu,and Vladlen Koltun.学会在黑暗中看东西。 在CVPR,2018年。 一二三四五、六、七[10] Yunjin Chen和Thomas Pock。可训练的非线性反应扩散:一个灵活的框架,快速有效的图像恢复。IEEETPAMI,39(6):1256-1272,2017。2[11] Kostadin Dabov、Alessandro Foi、Vladimir Katkovnik和Karen Egiazarian。稀疏三维变换域协同滤波图像去噪IEEE TIP,16(8):2080一、二[12] Xuan Dong , Guan Wang , Yi Pang , Weixin Li ,Jiangtao Wen,Wei Meng,and Yao Lu.一种快速有效的低照度视频增强算法载于ICME,2011年。2[13] Michael Elad和Michal Aharon通过学习字典上的稀疏和冗余表示进行图像去噪。IEEE TIP,15(12):3736-3745,2006年。一、二[14] Micha eülGharbi , Gaura vChaurasia , Syl vainParis ,andFre'doDurand. 深 度 联 合 去 马 赛 克 和 去 噪 。 ACMTOG,35(6),2016. 2[15] C le'mentGodard,KevinMatzen,andMattUyttendaele.深度突发去噪。在ECCV,2018。一、二、四[16] 古书航、张磊、左王梦、向楚风。加权核范数最小化及其在图像去噪中的应用。CVPR,2014。一、二[17] 郭晓洁,李宇,凌海滨。Lime:通过照明图估计进行低光图像增强。IEEE TIP,26(2):982-993,2017。2[18] Samuel W Hasinoff , Dillon Sharlet , Ryan Geiss ,Andrew Adams , Jonathan T Barron , Florian Kainz ,Jiawen Chen,and Marc Levoy.用于移动相机的高动态范围和低光照成像的连拍ACM TOG,35(6),2016. 一、二、四3195[19] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习。在CVPR,2016年。4[20] Felix Heide , Markus Steinberger , Yun-Ta Tsai ,Mushfiqur Rouf,Dawid Pajak,Dikpal Reddy,OrazioGallo , JingLiu , WolfgangHeidrich , KarenEgiazarian,et al.Flexisp:一个灵活的相机图像处理框架。ACM TOG,33(6),2014.一、二[21] Keigo Hirakawa和Thomas W Parks。联合去马赛克和去噪。IEEE TIP,15(8):2146-2157,2006年。2[22] Viren Jain和H.塞巴斯蒂安·胜。使用卷积网络进行自然图像NIPS,2008年。一、二[23] Diederik P. Kingma和Jimmy Ba。Adam:随机最佳化的方法。2015年,国际会议。4[24] Wei-Sheng Lai , Jia-Bin Huang , Oliver Wang , EliShechtman,Ersin Yumer,and Ming-Hsuan Yang.学习盲视频时间一致性。在ECCV,2018。四五六[25] 马克·勒布伦,安东尼·布德斯,让-米歇尔·莫雷尔。一种非局部小波图像去噪算法。SIAM Journal on ImagingSciences,6(3):1665-1688,2013。2[26] Jaakko Lehtinen 、 Jacob Munkberg 、 Jon Hasselgren 、Samuli Laine 、 Tero Karras 、 Miika Aittala 和 TimoAila。Noise2noise:没有干净数据的学习图像恢复。在ICML,2018。2[27] Sifei Liu,Jin-shan Pan,Ming-Hsuan Yang.通过混合神经网络学习低层次视觉的递归滤波器。在ECCV,2016年。4[28] ZiweiLiu , LuYuan , XiaoouTang , MattUyttendaele,and Jian Sun.快速突发图像去噪。ACMTOG,33(6),2014. 一、二、四[29] Kin Gwn Lore , Adedotun Akintayo , and SoumikSarkar.Ll-net:一种用于自然低光图像增强的深度自动编码器方法模式识别,61,2017。一、二[30] 阿图尔·巴洛萨,大卫·R·布尔,保罗·R·希尔和阿林·M·阿希姆。基于小波系数局部统计数字信号处理,23(6):1856-1866,2013. 2[31] Feifan Lv,Feng Lu,Jianhua Wu,and Chongsoon Lim.Mbllen:使用cnns的低光图像/视频增强。在BMVC,2018年。2[32] Matteo Maggioni、Giacomo Boracchi、Alessandro Foi和Karen Egiazarian。通过可分离的4维非局部时空变换实现视频去噪、去块和增强。IEEE TIP,21(9):3952-3966,2012年。二、四、五[33] Julien Mairal , Francis Bach , Jean Ponce , GuillermoSapiro,and Andrew Zisserman.图像复原的非局部稀疏模型。ICCV,2009年。一、二[34] 亨里克·马尔姆,马格努斯·奥斯卡松,埃里克·沃兰特,彼得里克·克拉伯格,乔恩·哈塞尔格伦,和卡莱·莱德福斯.非常低亮度视频中的自适应载于ICCV,2007年。2[35] Ben Mildenhall , Jonathan T Barron , Jiawen Chen ,Dillon Sharlet,Ren Ng,and Robert Carroll.使用核预测网络进行突发去噪。在CVPR,2018年。一、二、三、四、五[36] Seonhee Park , Soohwan Yu , Byeongho Moon ,Seungyong Ko和Joonki Paik。基于变分优化retinex模型的 微 光 图 像 增 强 。 IEEE Trans- actions on ConsumerElectronics,63(2):178-184,2017。23196[37] TobiasP lótz和Ste f anRoth。用真实照片对去噪算法进行基准测试CVPR,2017年。2[38] Javier Portilla、Vasily Strela、Martin J Wainwright和EeroP Simoncelli。基于小波域高斯尺度混合的图像去噪。IEEE TIP,12(11):1338- 1351,2003年。一、二[39] Olaf Ronneberger,Philipp Fischer,and Thomas Brox.U-网:用于生物医学图像分割的卷积网络在MICCAI,2015年。4[40] Leonid I Rudin,Stanley Osher,and Emad Fatemi.基于非线性全变分的噪声去除算法。物理D:非线性现象,60(1-4):259-268,1992. 一、二[41] EliSchwartz,RajaGiryes,andAlexMBronstein.DeepISP:学习端到端图像处理管道。IEEETIP,28(2):912-923,2019。一、二[42] Karen Simonyan和Andrew Zisserman用于大规模图像识别的非常深的卷积网络2015年,国际会议。4[43] 孙德清、杨晓东、刘明宇和Jan Kautz。Pwc-net:使用金字塔、扭曲和成本体积的光流的Cnns。在CVPR,2018年。5[44] Zhou Wang,Alan C Bovik,Hamid R Sheikh,and EeroP Simoncelli.图像质量评估:从错误可见性到结构相似性。IEEE TIP,13(4):600-612,2004. 5[45] Bihan Wen , Yanjun Li , Luke Pfister , and YoramBresler.动态联合自适应稀疏性和低秩:一种在线张量重构的视频去噪方法。InICCV,2017. 1[46] Junyuan Xie,Linli Xu,and Enhong Chen.使用深度神经网络进行图像去噪和修复。NIPS,2012年。一、二[47] Kai Zhang , Wangmeng Zuo , Yunjin Chen , DeyuMeng,and Lei Zhang.超越高斯降噪器:深度CNN的残差学习用于图像去噪。IEEE TIP,2017年。一、二
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 十种常见电感线圈电感量计算公式详解
- 军用车辆:CAN总线的集成与优势
- CAN总线在汽车智能换档系统中的作用与实现
- CAN总线数据超载问题及解决策略
- 汽车车身系统CAN总线设计与应用
- SAP企业需求深度剖析:财务会计与供应链的关键流程与改进策略
- CAN总线在发动机电控系统中的通信设计实践
- Spring与iBATIS整合:快速开发与比较分析
- CAN总线驱动的整车管理系统硬件设计详解
- CAN总线通讯智能节点设计与实现
- DSP实现电动汽车CAN总线通讯技术
- CAN协议网关设计:自动位速率检测与互连
- Xcode免证书调试iPad程序开发指南
- 分布式数据库查询优化算法探讨
- Win7安装VC++6.0完全指南:解决兼容性与Office冲突
- MFC实现学生信息管理系统:登录与数据库操作
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功