没有合适的资源?快使用搜索试试~ 我知道了~
7324学习在黑暗中看移动的物体江海洋南加州美国加利福尼亚haiyangj@usc.edu中国科学院信息科学日本东京yqzheng@nii.ac.jp摘要视频监控系统有着广泛的应用前景,但在昏暗的环境下,视频质量容易严重下降。工业解决方案主要使用超近红外照明,即使它各种研究增强了可见光相机拍摄的低光视频,而它们要么依赖于特定任务的先决条件,要么使用合成数据集进行训练。我们提出了一种新颖的光学系统来捕获完全相同场景的明亮和黑暗视频,为真实的低光视频数据集生成训练和地面真值对。利用具有3D和2D杂项操作的完全卷积网络来学习具有从原始相机传感器数据到明亮RGB视频的适当时空变换的增强映射实验结果表明,我们的方法有前途的结果,它优于国家的最先进的低光图像/视频增强算法。1. 介绍视频监控系统已广泛应用于工业、军事和学术界。然而,他们通常会遇到照明水平极低的情况,例如。夜间的安全摄像头[41],以及用于研究目的的长时间连续野生动物监测[5]。在这些情况下,为了不使记录设备曝光并且不干扰拍摄的对象,额外的可见光源通常不是可行的选择。当前的解决方案主要涉及近红外(NIR)LED [42]或二极管[11],如图1(a)所示。红外照明有助于在低光环境中获得更好的视觉,然而,与自然光相机系统相比,同时引入了几个附加的缺点。不可避免的是由于额外光源的存在而额外的能量消耗和热量产生*通讯作者(a)(b)(c)第(1)款(d)其他事项图1.低光照环境下广泛使用的工业系统与我们提出的解决方案之间的比较。(a)配备近红外二极管的监视摄像机;(b)套筒上的纹理在RGB图像中可见;(c)纹理信息在NIR图像中消失;(d)我们的弱光视频增强解决方案。这会增加系统的操作和维护成本。更重要的是,可见的颜色甚至纹理信息,这在某些情况下可能是至关重要的,例如.如图1的(b)和(c)中的典型示例所示,怀疑的衣服上的图案或动物皮毛的物理特性此外,即使使用NIR LED光源,仍然存在成为侵入性记录的风险,特别是当目标生物具有与人类不同的可见光光谱时。在这种情况下,红外辐射有可能引发不可控制的动物反应。基于这些原因,更合理的选择是直接增强由普通相机系统捕获的视频。研究人员已经提出了各种方法来增强低光图像和视频,包括对比度增强[26,1,2,20,34],去噪[28,15,43],retinex算法[37,21,22]等。在所有这些re-7325搜索,我们发现两个最密切相关的研究处理光线不足的问题[3,24]。这两项研究都采用深度卷积网络(DCN)方法来学习增强映射。为了训练和测试网络,低光照和良好光照的图像/视频对被生成为数据集中的基本元素。陈等提出的最先进的低光图像增强技术。[3],在称为See-in-the-Dark(SID)的数据集上训练DCN,该数据集是通过拍摄具有不同曝光时间的相同场景的他们的网络可以使极暗图像变亮,放大率高达300。然而,这种构建数据集的长曝光时间方法将其范围限制在静态设置。Lv等人[24]提出了一种多分支网络(MBLLEN),并在合成数据集上对其进行了训练。这两个训练数据集都丢失了真实世界弱光视频的细节它们要么忽略了视频中的动态时间信息,要么通过人工变换扭曲视频信息。在本文中,我们提出了一种新的光学系统拍摄明亮的视频,地面实况,黑暗的视频,作为训练输入,完全相同的场景同时拍摄。以这种方式,我们介绍了一个数据集的179对视频组成的35800极低光的原始图像和相应的明亮的RGB对应。这使我们能够在它们上训练修改后的U-Net [29],其具有混合的2D和3D操作,能够比通常的2D网络更好地操纵嵌入视频中的时间细节。我们的实验表明,新捕获的数据集与这种网络结构的表现优于国家的最先进的低光图像/视频增强技术的大幅度在我们的测试用例和现实世界的任务。本文的主要贡献可以概括为作为1. 我们建立了一个新的共轴光学系统,以捕捉时间同步和空间对齐的低光和良好照明的视频对。2. 我们收集了第一个低光/光照良好的视频对数据集的街景与移动车辆和行人,这将是公开发布,以促进进一步的研究。3. 我们提出了一个基于3D U-Net的网络低光视频增强,它揭示了优越的性能,色彩保真度和时间一致性。2. 相关工作微光视频增强涉及到多个研究领域,研究文献量巨大。本节简要介绍相关方法。弱光图像增强。用于暗图像增强的方法可以以逐帧模式应用于暗视频。有大量的传统增强方法来自直方图均衡,第Arici等人[1]提出了一种利用连续直方图信息增强图像对比度并保持自然度的算法。CVC [2]使用2D直方图来考虑像素间上下文信息。LDR[20]解决二维直方图不同层的优化问题,生成统一的变换函数。DHE[26]捕获输入图像的边缘信息以增强对比度。Retinex理论[18]是光线不足的图像增强研究中的另一个显著基础。Jobson等人[14在Retinex理论的基础上,发现了对数函数和高斯形式的最佳位置,并提出了一种多尺度算法和一种颜色恢复方法,以处理灰度世界假设被破坏的情况。LIME [10]估计逐像素照明图,并在实现增强之前通过结构对其进行细化。Fu等人[7]提出了一种基于融合的增强方法,该方法通过多尺度策略估计光照并融合导出的图像。Fu等人[8]指出了使用对数变换的缺点,并提出了一种加权变分模型来估计图像的反射率和照度。AMSR(自适应多尺度retinex)[21]推断多个SSR(单尺度retinex)的权重,以产生自然增强的图像。Liu等[22]在HSI颜色空间中,采用高斯滤波器提取光照和反射分量,并进行Gamma校正以增强饱和度。NPE [35]试图通过平衡图像细节和自然视图来克服基于视网膜的算法的自然性保持问题。还存在定义类似于视网膜理论或其他光学系统的新颖模型的研究。提出了一种双曝光融合算法。[39],模仿人类视觉系统来增强图像对比度。Ying等人[40]建立了摄像机响应模型,并利用该模型调整图像中每个像素的照度。通常,低光照图像增强方法需要针对特定任务进行调整以增强模型假设基于深度学习的方法。 数据驱动模型已经在图像和视频增强领域展示了强大的力量。CNN是最常见的模型之一Remez等人[28]说明了由DCN获得的类别信息有助于图像去噪。DnCNN [43]使用残差学习和批量归一化来加速和提高性能。CNN也直接应用于低光图像增强任务,例如。DCNN [32]和LLCNN [33]。最近,GANs [9]引起了越来越多的关注。它们能够生成通用的图像变换,例如条件GAN [12]和循环GAN [44],以及超分辨率任务,例如,SRGAN [19]。其他基于深度学习的方法包括LLNET [23],它使用堆叠稀疏去噪自动编码器来增强和去噪低光图像,以及深度Retinex-Net[37]结合了retinex理论和深度学习。7326组件规格相机型号:FLIR GS 3-U3- 23 S6 C关闭:视频模式7滤镜:拜耳模式ND滤镜型号:Thorlabs Reflective ND Filter ND20B摄像机1(明亮)(一)(b)(c)图2.我们构建的摄像机系统可以同时捕捉相同场景的明亮和黑暗视频。 (a)系统的光路(b)ND滤光片效果的演示弱光视频增强和训练数据集。在弱光视频增强领域,除了借用上述图像增强模型逐帧处理视频的方法或建立在Retinex理论基础上的方法(例如,基于分段的框架[34]。存在采用类似的方法去除倒置帧[6,27]。Kim等人[15]提出了一种方法,该方法分离时间和空间滤波以去除极低光照视频的噪声,并且使用具有限幅阈值的伽马校正直方图调整来增加动态范围。Ko等人[17]在相邻帧之间使用相似的补片来积累额外的信息。他们还使用了一个指导地图,以更好地保留明亮的区域,避免颜色失真,重影效果或闪烁。MBLLVEN [24]是MBLLEN的广义3D版本。它将时间信息纳入其网络过程。该网络在由均匀随机伽马校正和泊松噪声生成的合成数据集上进行训练[23]。有真实 的 低 光 图 像 训 练 集 , 例 如 。 [3] 和 低 光 数 据 集(LOL)[37]。然而,据我们所知,公开的真实黑暗视频训练数据集还不存在。因此,我们收集了足够数量的视频对,以建立系统的低光视频增强流水线。3. 查看-移动-黑暗中的对象数据集3.1. 相机系统为了克服由长曝光方法引入的模糊效果,我们构造了相机系统(如图2(c)所示)来捕获低光视频。该系统被设计为在足够照明的情况下工作,以便生成明亮的视频(地面实况)可以具有可接受的质量。环境光通过中继透镜以调整焦距和光束方向。然后设置分束器以分割输入光并将相同的亮度信息分别馈送到两个相机。其中一个相机配备了中性密度(ND)滤光器,以便可以产生弱ND滤光片能够在所有波长上减小光强度,而不修改色彩再现的色调。在我们的设置中,我们选择了透射光功率和入射光强度之间的比率为1%的ND滤光片。它的效果可以在图2(b)中看到,其中过度曝光的光管的光晕在通过ND滤光片之后变成可见的形状两台摄像机通过信号发生器完美同步具体来说,我们将其设置为每秒15、30、60和120帧。通过这些速率,我们能够在几分钟内收集数千张连续图像。此外,我们的系统的移动性允许我们在多个地方拍摄照片。这给了我们一个优势,在12小时内创建整个数据集,这表明了未来应用的数据增强潜力。相机的ADC模块生成具有12位深度的图像像素值,并将其保存为16位。表1给出了我们所选设备的更详细信息。表1.摄像机系统规格。虽然整个光学系统安装在坚固的底座上,采用标准的螺丝接口和C型卡口管系统,两个摄像头瞄准匹配的瞄准器分束中继透镜ND滤光器信号发生器摄像机2(暗)7327图3.训练数据集的子集。从上到下,每行表示ADC模块中的不同增益电平0、5、10、15、20。地面实况视频帧在前面,训练输入视频帧基本上是黑色的。仍然存在平移和旋转的像素级未对准。我们首先移除ND滤镜,并分别使用两台安装的相机拍摄50对明亮的照片来解决这个问题。然后,我们对这些清晰的图像对应用homography特征匹配操作,以获得最佳的几何映射,其中对齐后的差异是两个相机的视场之间的最小值。所有明亮的视频被相应地变换,以强制视频对之间的像素级严格对应。 在每一对中,明亮和黑暗的视频在几何映射后,将其裁剪为重叠的矩形区域(约1800像素×1000像素)。我们强制该区域的高度和宽度为偶数,以便进行后续的去马赛克操作。3.2. 数据集利用所构建的光学系统和对准预处理,我们采集了179个不同条件下有车辆和行人运动的街景视频对。我们 将 此 数 据 集 称 为 See-Moving-Objects-in-the-Dark(SMOID)数据集。五个不同的ADC增益水平,范围从0到20,间隔为5,用于维护不同的数据集。每个视频有200帧。所有视频帧都是以“GBRG”(从左到右,从上到下,在从左上开始的每个2x2单元中)拜耳模式组织的16位无符号整数格式。明亮的视频经过去马赛克过程,以正常的8位sRGB形式形成地面实况视频。用于地面实况视频去马赛克的特定转换器偶数起始行数和偶数起始列数的情况需要GR2RGB转换器,而奇数起始行数和偶数起始列数的情况需要BG2RGB转换器。转换器等在所有的对中,选择其中的125个作为训练样本,27个作为验证集,其余27个作为测试集。图3显示了SMOID数据集的一个子集。从上到下的五个行以递增的顺序对应于具有不同ADC增益水平的视频每行包含从地面实况和训练输入视频提取的关键帧。 由于暗图像主要都是黑色的事实,所以亮图像显示在前景中。尽管这里呈现的关键帧都是街景,但实际的训练视频包含了大量的特征,这些特征足以让我们的网络掌握各种黑暗场景的通用增强映射第5节中的详细实验结果证实了这一结论。4. 方法4.1. 管道我们的管道概述如图4所示。我们的流水线从原始传感器数据重建RGB格式的明亮视频。这是因为极端的黑色情况会导致非常低的信噪比(SNR)图像,在这种情况下,RGB 8位格式无法保持对真实世界信息的保真度。在我们的SMOID数据集中,原始图像是由具有拜耳滤波器的相机获得的因此,在将视频馈送到网络之前,我们将每个帧按“GRBG”顺序打包到4个通道中通过在我们的网络末端插入应用于每个帧的子像素深度到空间层[31]来进行分辨率恢复。考虑到原始值可以在比常见RGB值更宽的范围内波动的事实,特别是在高ADC增益水平下,我们将整个视频剪辑值调整为73285图4.我们修改后的U-Net增强管道的概述顶部是模块化的结构图,底部是U-Net的细节演示。线性缩放过程,使他们的平均值后,广告-在初步试验中,我们试图减少的深度调整位于1附近最大值确定特征图的U-Net和通道号通过存储格式来确定。 该比率是在预备实验后适当选择的经验值,并在整个后续过程中保持尽管如此,这可能会带来一定程度的自由,以微调模型在就业阶段。4.2. 网络最近的研究[30,4,38]探索了DCN在图像到图像任务中的有效性,特别是U-Net [3]。受到这一事实的启发,我们将我们的主要增强模块建立在端到端的U-Net框架上。低光照图像增强算法直接应用于视频的每一帧容易引起闪烁问题。为了避免这些缺点,并利用时间信息,我们的网络中采用3D卷积层来取代传统的2D卷积层。与来自MBLLEN [24]的MBLLVEN相反,我们没有简单地将所有层升级到3D计算,因为我们发现,即使2D池化和反卷积层帮助网络感知特征图中的抽象元素,它们的3D版本也因此,我们修改的U-Net将3D卷积和2D池化/去卷积组合在一起,以更好地整合时空信息。是否存在冗余。经过几次调查,我们只确定了三个下采样/上采样层组合(与最初的四对相比),通道编号与之前相同。U-Net的最后一步通过1× 1卷积层将输出通道数更改为12,以适应深度到空间层我们修改后的U-Net的详细尺寸信息见图4。4.3. 培训我们的网络是用L1损失函数和Adam Optimizer从头开始训练的。对于压缩的训练输入视频,它被切割为16× 256× 256,其中16是帧号,其余是空间大小。裁剪数据的起始帧编号为4的倍数,从0开始,意味着每个视频剪辑可以在一个时期中生成(200 - 16)/ 4 = 46个训练数据阵列。每个数据阵列随机选择256× 256个空间窗口随机转置沿时空维度也被应用于数据增强。设定学习率最初为10−4,15个历元后降至10−5,10−6在30个时期之后。训练过程进行了60个时期。7329123456图5.定性结果比较的关键框架。从上到下:1. RGB格式输入; 2.线性比例输入3. MBLLVEN结果; 4. Chen等人的工作; 5.我们的结果; 6.地面真相5. 实验5.1. 定性结果比较概述。我们将管道的结果与直接线性缩放的结果/输入进行了比较的工作[3]在我们的数据集上以逐帧的方法训练定性比较结果概述见图5。从上到下,每行对应于以下的关键帧:1)RGB格式化的输入,2)缩放的帧,3)MBLL-VEN结果,4)Chen等人的‘的工作7)地面真相线性缩放的视频在这里作为我们的网络的直接输入的参考MBLLVEN根据Lv等人在我们的数据集上实现和训练。[24] 原始MBLLVEN增强视频从普通RGB格式到普通RGB格式。我们改变了第一层内核的形状,以便可以直接处理12位原始数据。从比较结果可以看出,由MBLLVEN产生的结果遭受噪声和过度调整问题,失去了视频的自然性。对于Chen等人’在我们的工作中,我们将训练数据集中的所有帧混洗以训练它们的2D U-Net,并在测试阶段将其应用于每个帧。从概述图中,我们可以看到Chen等人的结果和我们的网络的恢复亮度和颜色准确。话虽如此,陈等人的网络结果显示了光线过冲的微妙证据强度恢复,例如,他们的结果中的第五个关键帧似乎比我们的和地面实况更亮。相反,我们的结果完全遵循地面实况的亮度。与Cheneta l. 的方法。 我们进一步比较了我们的方法与Chen等人。我们在不同方面的工作,以显示更清晰的区别。我们首先测试了SMOID数据集在多大程度上是一个有用的工具,它报告了SID训练网络的结果。从图6可以看出,使用SID训练的网络因为Chen等人的工作只能逐帧处理视频,我们想演示容易发生的闪烁问题。然而,我们在这里只做一个简短的分析,以帮助抓住要点。强烈建议通过本文补充材料中捆绑的视频剪辑来感知闪烁的效果。在图7中,从Chen等人生成的代表性视频中提取单独的相邻帧。的工作和我们的管道。图7中的图片(a)和(b)是来自Chen等人的起始点。的网络和我们的网络分别生成的结果。以下10帧位于图的右上方,显示亮度和颜色差异。在图片(d)中,描绘了与剪辑中的每个帧相关的相对亮度的两条曲线。我们可以看到,尽管它们处于不同的平均水平,但红色曲线中的分散度,对应于Chen等人。的网络成绩,比我们的高。我们的网络,通过引入3D歌剧-7330(c)第(1)款(一)(b)第(1)款(d)其他事项图6.Chenet al.在不同的数据集上训练的管道第一行:在他们自己的数据集SID上训练;第二行:在我们的数据集SMOID上训练。图7.结果中闪烁效果的示例(a)来自Chen等人的帧26(b)来自我们的方法的结果的帧26;(c)来自两个视频的连续10帧;(d)这两个剪辑的每帧中的平均亮度。保持平稳的整体强度。不同相机和不同场景的定性结果我们还在其他相机获得的原始视频上测试了我们训练的网络,针对不同的场景和不同的增益水平。这是为了检查我们提出的管道的泛化从呈现的结果视频帧中,我们可以看到我们的网络在SMOID中没有过度拟合街景,而是能够执行通用的暗视频增强任务,成功地提高了可见性和色彩渲染。完整的交叉摄像机测试结果视频可在补充材料中获得。5.2. 定量结果对于详细的定量测量,我们使用三个标准来进行分析。PSNR、SSIM [36]和平均绝对亮度差(MABD)矢量的均方误差(MSE)。PSNR结果示于表1新相机1增益05新相机1增益10新摄像机2增益00新摄像机2增益20图8.交叉相机测试的未经策划的示例帧。使用了两个新相机(新相机1和新相机2),以及不同的增益水平。每个图像2. SSIM结果如表3所示。这些值证实了Chenet al.的工作和MBLLVEN缺乏准确地恢复从现实世界的低光视频的细节相比,我们的方法的能力7331PSNRChen等人SMBLLVEN我们增益0测试24.7324.3325.19增益5测试24.4225.6230.59增益10测试24.6826.7230.46增益15测试27.2827.0631.67增益20测试27.9626.9730.06平均25.8126.2329.86表2.测试数据集上不同方法结果的PSNRSSIMChen等人SMBLLVEN我们增益0测试0.83720.78400.8868增益5测试0.84990.79910.9596增益10测试0.85160.81120.9626增益15测试0.87320.81880.9528增益20测试0.85860.81920.9575平均0.85410.80740.9480表3.测试数据集上不同方法结果的SSIM平均绝对亮度差(MABD)可以被视为每个像素位置上的亮度值的时间导数的一般水平。计算公式如下:方法通过3帧时域滤波来实现。其过度平滑效应可以从其MABD向量始终低于地面实况水平的事实推断。结果视频的MABD矢量与其地面真值的MABD矢量之间的均方误差(MSE)可以作为其闪烁效应的指示。这些值显示在表4中。在这个图表中,我们可以看到我们的流水线在所有方法中实现了最佳的时间平滑度。MSE(MABD)MBLLVEN39.31Chen等人S29.44Chen等人s +平滑27.57我们4.436表4.不同方法的结果的MABD向量与相应的地面真值的MABD向量之间的均方误差6. 结论本文提出了一种新的同步双摄像机系统.通过以下方式收集大型配对数据集MABD(k)=1 ΣMMNΣN|(一)|(1)该系统,使准确的增强网络训练和测试。提出了一种改进的三维U网,i=1j =1M和N是框架的高度和宽度。brk(i,j)是帧k处的像素(i,j)的亮度,其中k在1≤kN帧的范围内。来自不同方法的MABD载体的结果可以在图9中找到图9.不同网络的MABD向量。我们的结果的MABD向量遵循地面实况比所有其他曲线,保持真实世界的自然。Chen等人s和MBLLVEN的变差水平都高于地面实况,显示时间轴上的不稳定性。我们还附上了描绘平滑Chen等人的MABD的黑色曲线。的结果。平滑在我们的数据集上训练,具有复杂的场景和多增益水平。对比实验表明,该流水线我们还展示了将我们的训练网络直接应用于其他设备记录的真实世界黑暗视频的令人印象深刻的结果,这些设备与我们用于构建SMOID的系统不同。尽管如此,未来仍有许多方面需要改进。数据集容量将不断增加,以覆盖更多样化的场景和对象。网络的复杂性可以通过系统地优化可能的实时处理来降低。不同的增益水平,ISO,光圈和ND过滤器与各种传输率需要处理的管道更自然。我们希望我们的工作能为极弱光视频增强技术的进一步研究和应用奠定基础鸣谢。这项工作是在姜海洋博士访问光学传感和摄像系统实验室(奥斯卡实验室)时完成的。通过NII国际实习项目,郑银强博士在日本国立信息学研究所(NII)工作这项工作得到了2018年NII研究项目资金的支持。引用[1] Tarik Arici、Salih Dikbas和Yucel Altunbasak。一种直方图修正框架及其在图像对比度增强中的应用透射图像Proc. ,18(9):1921-1935,Sept. 2009年7332[2] 图尔盖·切里克和塔迪·查哈迪上下文和变化对比度增强。 译Img. Proc. ,20(12):34312011年。[3] Chen Chen,Qifeng Chen,Jia Xu,and Vladlen Koltun.学会在黑暗中看东西在IEEE计算机视觉和模式识别会议(CVPR)上,2018年6月[4] Qifeng Chen,Jia Xu,and Vladlen Koltun.使用全卷积网络进行快速图像处理。2017年IEEE国际计算机视觉会议(ICCV),第2516-2525页[5] JustynaCilulko,PaweJaniszewski,MarekBogdaszewski,and Eliza Szczygielska.红外热成像技术在野生动物研究中的应用。欧洲野生动物研究,59:17[6] 宣东,庞毅,闻江涛。用于增强低光照视频的快速有效的算法。2011年IEEE多媒体和博览会国际会议,第1[7] Xueyang Fu,Delu Zeng,Yue Huang,Yinghao Liao,Xinghao Ding,and John Paisley.一种基于融合的弱光照图像增强方法。信号处理,129:82[8] Xueyang Fu , Delu Zeng , Yue Huang , Xiao-PingZhang,and Xinghao Ding.同时估计反射率和照度的加权变分模型。2016年IEEE计算机视觉和模式识别会议(CVPR),第2782-2790页[9] Ian J. Goodfellow,Jean Pouget-Abadie,Mehdi Mirza,Bing Xu,David Warde-Farley,Sherjil Ozair,Aaron C.Courville和Yoshua Bengio。生成性对抗网。在NIPS,2014。[10] 郭晓洁,李宇,凌海滨。Lime:通过照明图估计进行低 光 图 像 增 强 。 IEEE Transactions on ImageProcessing,26:982[11] 德克·W Hertel,Her ve'Ma re' chal,DanielA. 范文生,里奇·希克斯.基于宽动态范围cmos成像器的低成本vis-nir真彩色夜视视频系统。2009年IEEE智能车辆研讨会,第273-278页[12] Phillip Isola,Jun-Yan Zhu,Tinghui Zhou,and Alexei A.埃夫罗斯使用条件对抗网络的图像到图像翻译。2017年IEEE计算机视觉和模式识别会议,第5967-5976页[13] Daniel J. Jobson,Zia ur Rahman和Glenn A.伍德尔一种多尺度视网膜,用于弥合彩色图像和人类对场景的观察之 间 的 差 距 IEEE Transactions on Image Processing :IEEE信号处理协会的出版物,67:965 -76,1997。[14] Daniel J. Jobson,Zia ur Rahman和Glenn A.伍德-埃尔。中心/环绕视网膜的特性和性能。IEEE transactions onimage processing : a publication of the IEEE SignalProcessing Society,6 3:451[15] 放大图片作者:David K.Han和Hanseok Ko.一种用于极低光照视频去噪和增强的新方法IEEE Transactions onConsumer Electron-ics,61:72[16] Diederik P. Kingma和Jimmy Ba。Adam:随机最佳化的方法。CoRR,abs/1412.6980,2014。[17] Seungyong Ko , Soohwan Yu , Wonseok Kang ,Chanyong Park,Sangkeun Lee,and Joonki Paik.使用时间 相 似 性 和 引 导 图 的 无 伪 影 低 光 视 频 增 强 IEEETransactions on Industrial Electronics,64:6392[18] Edwin H. 土地 视网膜 颜色视 觉理论美国 科学 ,237(6):108-128,12月。一九七七年[19] ChristianLedig , Lucas Theis , Ferenc Huszar , JoseCaballero,Andrew P. Aitken,Alykhan Tejani,JohannesTotz,Zehan Wang,and Wenzhe Shi.使用生成对抗网络的照片级真实感单幅图像超分辨率。2017年IEEE计算机视觉和模式识别会议(CVPR),第105-114页[20] 李哲,金昌洙,李哲宇。基于二维直方图分层差分表示的 对 比 度 增 强 。 IEEE Transactions on ImageProcessing,22(12):5372[21] 李长兴,施肇玲,连正昌,韩金川。用于图像对比度增强的自适应多尺度retinex。2013年信号图像技术基于互联网的系统国际会议,第43-50页[22] Huijie Liu,Xiankun Sun,Hua Han,and Wei Cao.基于多尺度retinex类算法的微光视频图像增强。2016年中国控制与决策会议(CCDC),第3712-3715页[23] Kin Gwn Lore , Adedotun Akintayo , and SoumikSarkar.Ll-net:一种用于自然低光图像增强的深度自动编码器方法Pattern Recognition,61:650[24] Feifan Lv,Feng Lu,Jianhua Wu,and Chongsoon Lim.MBLLEN:使用cnn的低光图像/视频增强。在英国机器视觉会议2018,BMVC 2018,诺森比亚大学,纽卡斯尔,英国,2018年9月3日至6日,第220页。BMVAPress,2018.[25] 马佳怡,陈晨,常莉,黄军基于梯度转移和总变分最小化的红外Information Fusion,31:100[26] Keita Nakai、Yoshikatsu Hoshi和Akira Taguchi。基于差分强度/饱和度灰度直方图的彩色图像对比度增强方法。2017年11月,智能信号处理和通信系统国际研讨会(ISPACS)。[27] 庞建华,张胜,白文仓。一种用于增强低光照视频的新颖框架。 2017年IEEE计算机与通信研讨会(ISCC),第1366-1371页[28] Tal Remez,Or Litany,Raja Giryes,and Alexander M.布朗斯坦。深度类感知图像去噪。2017年采样理论与应用国际会议(SampTA),第138-142页[29] O. Ronneberger,P.Fischer,and T.布洛克斯U-net:用于生 物 医 学 图 像 分 割 的 卷 积 网 络 在 Medical ImageComputingandComputer-AssistedIntervention(MICCAI),LNCS的第9351卷,第234施普林格,2015年。(可在arXiv:1505.04597 [cs.CV]上获得)。[30] Evan Shelhamer Jonathan Long和Trevor Darrell用于语义分段的全卷积网络。20157333IEEE计算机视觉和模式识别会议(CVPR),第3431-3440页[31] 放 大 图 片 作 者 : WenzheShi , JoseCaballero ,FerencHusza'r , JohannesTotz , Andrew P.Aitken , RobBishop,Daniel Rueckert,and Zehan Wang.使用高效的亚像素卷积神经网络实现实时单图像和视频超分辨率2016年IEEE计算机视觉和模式识别会议,第1874-1883页[32] 李涛,朱闯,宋佳文,陆涛,贾慧珠,谢晓东。结合cnn与亮通道先验的微光图像增强2017 IEEE图像处理国际会议(ICIP),第3215-3219页[33] Li Tao , Chuang Zhu , Guoqing Xiang , Yuan Li ,Huizhu Jia,and Xiaodong Xie. Llcnn:一种用于低光图像 增 强 的 卷 积 神 经 网 络 。 2017 IEEE VisualCommunications and Image Processing(VCIP),第1[34] 王东升、牛信、斗勇。一种基于分段的低光照视频对比度 增 强 框 架 。 Proceedings 2014 IEEE InternationalConferenceonSecurity , PatternAnalysis , andCybernetics(SPAC),pages 235[35] 王书航、金正、胡海淼、波丽。非均匀光照图像的自然性 保 持 增 强 算 法 。 IEEE Transactions on ImageProcessing,22:3538[36] 放大图片作者:Alan C.哈米德?博维克Sheikh和Eero P.西蒙切利图像质量评估:从错误可见性到结构相似性。IEEE图像处理学报,13:600[37] Chen Wei,Wenjing Wang,Wenhan Yang,and JiayingLiu.用于弱光增强的深度retinex分解。在BMVC,2018年。[38] Li Xu,Jimmy Ren,Qiong Yan,Renjie Liao,and JiayaJia.深度边缘感知过滤器。在Francis Bach和David Blei编辑的Proceedings of the 32 nd International Conference onMachine Learning , Proceedings of Machine LearningResearch第37卷,第1669-1678页PMLR。[39] Zhenqiang Ying,Ge Li,and Wen Gao.一个生物启发的多 曝 光 融 合 框 架 , 用 于 弱 光 图 像 增 强 。 CoRR ,abs/1711.00591,2017年。[40] Zhenqiang Ying,Ge Li,Yurui Ren,Ronggang Wang,and Wenmin Wang.一种新的基于相机响应模型的微光图像 增 强 算 法 。 2017 年 IEEE国 际 计 算 机 视 觉 研 讨 会(ICCVW),第3015-3022页[41] Iffat Zafar,Usman Zakir,Ilya V.作者声明:Richard M.Jiang,和Eran A. Edirisinghe。基于fpga的红外夜视军事监视人体轮廓提取。2010第二届亚太电路、通信与系统会议,1:63[42] Huaizhong Zhang , Chunbo Luo , Qi Wang , MatthewKitchin,Andrew Parmley,Jesus Monge-Alvarez,andPablo Casaseca de-la Higuera.基于深度学习技术的新型红 外 视 频 监 控 系 统 。 MultimediaToolsandApplications,77(20):26657[43] Kai Zhang , Wangmeng Zuo , Yunjin Chen , DeyuMeng,and Lei Zhang.超越高斯去噪器:用于图像去噪的深度CNN。IEEE Transactions on ImageProcessing,26:3142[44] Jun-Yan Zhu,Taesung Park,Phillip Isola,and Alexei A.埃夫罗斯使用循环一致对抗网络的不成对图像到图像翻译。2017年IEEE计算机视觉国际会议(ICCV),第2242-2251页,2017年。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 李兴华Java基础教程:从入门到精通
- U盘与硬盘启动安装教程:从菜鸟到专家
- C++面试宝典:动态内存管理与继承解析
- C++ STL源码深度解析:专家级剖析与关键技术
- C/C++调用DOS命令实战指南
- 神经网络补偿的多传感器航迹融合技术
- GIS中的大地坐标系与椭球体解析
- 海思Hi3515 H.264编解码处理器用户手册
- Oracle基础练习题与解答
- 谷歌地球3D建筑筛选新流程详解
- CFO与CIO携手:数据管理与企业增值的战略
- Eclipse IDE基础教程:从入门到精通
- Shell脚本专家宝典:全面学习与资源指南
- Tomcat安装指南:附带JDK配置步骤
- NA3003A电子水准仪数据格式解析与转换研究
- 自动化专业英语词汇精华:必备术语集锦
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功