没有合适的资源?快使用搜索试试~ 我知道了~
3555基于光流引导训练的空间变反卷积网络动态场景去模糊袁媛、苏伟、马丹丹西北工业大学计算机学院和光学图像分析与学习中心,陕西西安; R. 中国{y.yuan1.ieee,npusuwei,madandanhello}@ gmail.com摘要为了去除动态场景中图像的非均匀模糊,许多基于深度学习的方法设计了具有较大感受野和较强拟合能力的深度网络,或者使用多尺度策略在不同尺度上逐渐去模糊图像。这些方法受结构和参数的限制,往往模型规模较大,难以处理复杂的模糊问题。本文从去模糊反卷积运算出发,设计了一种有效的实时去模糊网络。本文的主要贡献有三个方面:1)利用调制变形卷积构造了一个空间变反卷积网络,该网络可以根据图像的模糊特征自适应地调整感受野。2)我们的分析表明,变形卷积的采样点可以用来近似模糊核,这可以简化为双向光流。因此,采样点的位置3)我们为图像复原问题建立了一个轻量级的主干,它可以很好地平衡计算量和有效性。实验结果表明,该方法具有较好的去模糊效果,但参数少,运行时间短1. 介绍由于在曝光时间期间的相对运动,在拍摄照片时总是发生运动许多因素,如相机抖动,物体运动和深度变化可能导致模糊伪影。模糊伪影会降低图像质量,这对目标检测、文本识别和目标跟踪等计算机视觉任务是有害的。动态场景去模糊就是从模糊的图像中恢复清晰的图像.动态场景中的模糊可以建模为*通讯作者。图1.所提出方法的概述。变形卷积的采样点用于逼近局部模糊核,并由双向光流监督,该光流可以很容易地从去模糊数据集获得。位置损失用于训练采样点更接近光流。非均匀模糊,其通常被公式化为:b=Ks+n,(1)其中b、s和n分别表示矢量化的模糊图像、K是非均匀模糊矩阵,其每一行表示附加到清晰图像以生成模糊像素的局部模糊核。非均匀模糊的解空间很大,这导致用b求解s和K很困难。为了约束非均匀模糊的解空间,一些手工制作的先验,如暗通道先验[22],重尾梯度先验[24],超拉普拉斯先验[16],极端通道先验[33]等。,进行了介绍。然而,传统的去模糊过程涉及昂贵的非凸优化,这是消耗时间和内存的。一旦先验不合适,头寸损失内容损失3556因为会出现振铃伪像。 Kim等人[9]设计基于分段的非均匀去模糊框架,其中模糊核在一个分段内共享。一些工作[10,28,6]将模糊核近似为局部线性核,并联合估计潜像和线性核。Li等人。 [20]使用卷积神经网络学习自然图像先验,并将其用作正则化项。随着深度学习的发展,许多研究人员[21,23,27,18,29]试图构建去模糊神经网络,以端到端的方式对图像或视频进行去模糊,并实现最先进的性能。没有模糊核估计过程,这些方法直接从模糊输入图像生成清晰图像。然而,由于动态场景去模糊的复杂性,需要在去模糊网络中加入大量的卷积层,以保证有足够大的感受野来处理严重的运动模糊情况。此外,不同模糊图像的模糊程度不同,但去模糊网络的参数和结构是固定的。因此,目前的去模糊网络包含大量的参数来处理各种模糊图像,这导致网络规模庞大,计算量巨大。提出了一种新的动态场景去模糊网络.我们从去模糊反卷积操作开始,然后尝试用堆叠的可变形卷积层来建模反卷积操作。可变形卷积层可以基于模糊图像中包含的模糊特征来自动调整采样点的分布和权重。因此,整个网络具有根据模糊输入自动调整接收字段和权重的能力What’s实验结果表明,该方法具有较好的去模糊效果,但所需参数较少,运行时间较短所提出的方法的概述如图1所示。总的来说,本文的主要贡献概括如下:• 我们设计了一个特征反卷积模块,利用调制变形卷积在特征级近似去模糊反卷积分布-变形卷积的采样点位置和权值大小可以根据模糊的方向和程度自动调整,实现了感受野和权值的自适应与其他基于正则卷积的去模糊网络相比,该去模糊网络参数少,结构简单。• 我们引入双向光流来引导可变形卷积的学习,其采样点可用于近似模糊核。在不直接使用人工合成的光学图像对的情况下,我们直接从去模糊数据集计算光流。实验结果表明,采用光流引导训练可以取得较好的效果。• 我们设计了一个轻量级的骨干图像恢复问题。为了减少空间信息的损失,我们只使用了下采样操作并应用具有不同扩张率的扩张卷积,以确保网络由于空间分辨率没有降低,因此没有必要增加通道的数量,因此卷积层具有比使用多个下采样操作的网络更少的2. 相关工作2.1. 深度图像去模糊随着深度学习的发展和大量数据集的出现,许多研究人员[21,23,29,18,19]设计了端到端的去模糊网络,实现了出色的性能。这些基于深度学习的方法直接从模糊图像预测清晰图像,而不需要模糊核估计过程,这使得它们比模糊核估计更有效。Nah等人。[21]提出了一种多尺度卷积神经网络来消除动态场景中的模糊,并获得出色的去模糊结果。模糊将从粗略比例中移除每个尺度下的网络包含40个卷积层,并且不共享跨尺度的参数。因此,网络的总参数数量巨大,这导致计算和推理时间增加,并且训练困难。为了解决这些问题,Tao等人。 [29]使用具有跳过连接和三个尺度的参数共享的编码器-编码器结构,这可以稳定训练过程并实现更好的去模糊性能,效果令人印象深刻。网络结构简单,参数少。2.2. 反卷积神经网络一些方法[35,32]试图将去模糊问题建模 Zhang等人[35]分析了空间递归神经网络(RNN)可以实现反卷积。为了获得大的感受野并融合来自不同过滤方向的特征,他们使用四个RNN并添加一个3557ConvConvULePR图2.提出的去模糊网络的总体结构,它包括四个组件,即特征提取器,颈部,头部和全局跳过连接。颈部由两个调制的可变形卷积组成,头部用于重建清晰的根据模糊图像中提取的模糊特征自适应地调整偏移量和权值。每个RNN之后的卷积层。预训练的VGG16[26]然后使用子网络来预测RNN的空间但RNN不能沿空间维度计算时间,因此该方法的推理时间仍然没有减少,而采用VGG16尽管可以使用大核卷积来近似去卷积核,但是引入了大量参数。Xu等人。 [32]使用可分离卷积来近似反卷积核,然后设计一个反卷积神经网络用于图像去模糊。但是,该方法只能去除均匀模糊,并且需要针对不同的模糊核训练不同的网络参数,限制了其在动态场景中的应用。2.3. 光流去模糊一些动态场景去模糊方法[14,1]使用双向光流来近似模糊核并生成可靠的去模糊结果。 Kim等人[14]提出了一种无分割的动态场景去模糊方法,并应用从前一帧和下一帧计算的双向光流来近似模糊核。这个假设减少了解空间,使其更容易求解。然而,由于动态场景中的运动是非常复杂的,而且模糊核通常具有复杂的形状而不是线性形状,因此这一结论通常是不正确的。Chen等人[1]设计一个自监督学习框架来微调现有的去模糊网络,并实现显著的改进。他们使用光流预测网络[3,11]来获得双向光流其被用作局部模糊核,然后对重新覆盖的图像进行模糊。损失是由原来的模糊图片的监督计算。该技术改善了现有方法的性能,使去模糊结果更忠实于潜在的清晰图像。3. 方法在本节中,我们将详细介绍所提出的去模糊网络总体架构如图2所示另外,对特征反卷积模块、光流引导训练和用于训练的损失函数分别进行了描述。3.1. 网络架构去模糊网络由骨干、颈部、头部和全局跳接四部分组成.后骨骼,也称为特征提取器,以模糊图像作为输入,提取内容特征和模糊特征。颈部是包含两个调制的可变形卷积的特征去卷积模块头部用于对颈部的特征图进行上采样并重建RGB图像。在全局跳跃连接的帮助下,网络只需要学习模糊图像和清晰图像之间的残差。膨胀的脊柱。主干用于从输入模糊图像中提取模糊特征并编码内容特征。主链的结构如图3所示。为了减少侦查的难度结构,我们只使用一次下采样操作为了确保有足够大的接受野去模糊,我们使用不同的扩张卷积,offset_weight字段1offset_weight字段2损失23N偏移量1重量13N偏移量2重量2损失1全球Skip Connect可变形Conv1可变形Conv2特征提取器Conv转置转换PReLUConvPReLU转换PReLUConv35586811转换PReLU33232326464646464642532323264646464646464C1211121111111111112244膨胀率在网络中,膨胀率被设置为1、2和4。由于没有下采样,特征图的空间分辨率不变,因此输出通道的数量不需要增加,只需要保持与输入通道的数量相同同时,为了更好地利用不同尺度的特征,引入融合模块对不同层次的输出特征图进行融合,并利用跳跃连接加快训练过程。融合后的特征图分为两部分作为主干的输出。其中一个输出是模糊特征,用于生成颈部可变形卷积的偏移和权重。另一个是内容特征,它被用作可变形卷积的输入。脖子颈部是一个特征去卷积模块,它是一个模糊自适应组件,包含两个调制的可变形卷积[37]。模糊功能由主干提取的数据用于生成两个可变形卷积的偏移和权重。当图像中存在轻微模糊时,偏移量将较小,但当存在严重模糊时,偏移量将较大。与通过正则卷积构造的模型[21,29,19]不同,我们的网络的接收场可以根据输入图像的模糊程度自适应地调整头部头用于重建与输入图像大小相同的RGB图像。在主干中有一个下采样操作,因此分辨率-特征图的分辨率是输入图像的分辨率的一半。因此,应在颈部添加上采样操作以扩大特征图的空间尺寸。代替双线性插值,我们使用转置卷积来对特征图进行上采样。全球跳跃连接。全局跳过连接通常应用于基于学习的图像恢复任务[13,36,23,19]。而不是直接恢复图像,网络只需要学习之间的残差模糊图像和地面实况,与全球跳跃连接的帮助下,这减少了学习的困难,=-图3.特征提取器的体系结构。每个模块中的4个数字表示输入通道、输出通道、步幅和膨胀率分开。所有卷积核的大小都是3。 虚线表示跳过连接。 其中,Δc是沿通道维度的关联,Δ+是逐元素求和。根据模糊程度而变化。这意味着不同的模糊图像具有不同的逆核。此外,[35]表明逆滤波器的非零区域大于模糊核的非零区域,这意味着去卷积需要更大的感受野。对于逆滤波器的逼近,常规卷积层由于受到常规采样网格和固定权值的限制,效率不高。相反,可变形卷积[2,37]具有灵活的采样点,其偏移可以从输入特征中学习并自适应调整。此外,权重也可以通过乘以掩码来改变在此基础上,我们用调制变形卷积来近似反卷积运算。由于采样稀疏,本文在特征级而不是图像级使用可变形卷积此外,为了扩大接收域,使模块更具有可解释性,我们修改了Equ。2至F[S]=1·F[K]·F[B]。(三)F[K]2因此,特征反卷积模块可以分为两个部分,用于近似F[K]和邪教意义重大。 因此,我们添加全局跳过连接-在去模糊网络中的作用,如[18,19]。1F[K] 2 在空间域中分别。 它不同于3.2. 特征反卷积模块在本小节中,我们从一个简单的图像去卷积方程开始,然后尝试使用可变形卷积来近似它。均匀的去模糊过程[30]中的用法,即我们不堆叠可变形卷积以级联方式逐渐去模糊具体地,第二部分的可变形采样参数从第一部分的可变形采样参数导出,而不是从第一部分的输出特征导出,如图2所示。应该注意的是,在这个模块中,我们只使用一个可变形卷积来近似傅立叶域中的模糊可以被描述为1F[K] 2在空间域中,更多的可变形卷积可以F[S]=1·F[B],(2)F[K]其中F是傅里叶变换,S、B和K分别是清晰图像、模糊图像和模糊核以获得更好的近似和更好的去模糊性能这两个可变形卷积的偏移和掩模的预测可以公式化为:ow1=Conv(x),(4)的1F[K] 是反卷积的逆核ow2=Conv(f(Conv(f(ow1),(5)转换PReLUConv3559=;F(a)(b)第(1)款算法1用于计算从采样点到双向光流的最短距离的算法。输入:采样点的坐标(x,y);光流参数(u,v);输出量:最短距离min dis;一曰: 从采样中2指向光流x0uvy+vxu2+v22:如果x0∈[min(0,u),max(0,u)],则勒沃-维 尤3:最小距离=u2+v2;4:else(c)(d)其他事项5:d1=dx2+y2;6:d2=(x-u)2+(y-v)2;图4.光流的视觉比较。 (a)及(c)为两个连续的帧。(b)(d)分别是Farnback [4]和DIS [17]计算的光流其中Conv表示常规卷积层,f是激活函数,即参数化ReLU(PReLU)[8]在建议的去模糊网络中。x是由主干提取的模糊ow1和ow2是生成的偏移和权重,用于两个堆叠的可变形卷积层3.3. 光流引导训练根据上一节,我们需要将第一个可变形卷积的采样点约束为接近模糊核的分布。但通常情况下,数据集只包含模糊图像和相应的清晰图像,没有可用的模糊核。因此我们使用与[14]相同的方法来用当前帧到前一帧和下一帧的光流来近似模糊核因此,它只需要使变形采样点的空间分布接近两个光流带。为了获得更精确的密集光流,如图4所示,我们使用DIS算法[17]来计算光流,而不是Farnback算法[4]。有两种方法可以测量匹配度,7: mindis=min(d1,d2);第八章: end if9:returnmin dis;其中dij表示从第i个点到第j个光流的最短距离n是采样点的数量,在我们的实验中为25。 md是n个最短距离的平均值。算法1中示出了计算从采样点到光流的最短距离的细节。3.4. 损失函数用于训练的损失函数由逐像素损失、感知损失和位置损失组成,其被公式化为:L=L像素+λ1·L像素+λ 2·L位置,(7)其中,在我们的实验中,λ1设置为0.01,λ2设置为0.0001像素丢失。用于像素级的两个经典损失函数是MAE和MSE损失,它们也分别被称为L1和L2损失L2损失已被用于许多去模糊问题[29,34],取得了令人印象深刻的结果。因此,我们还使用L2损失作为逐像素损失,其可以公式化为:在采样点和两个光学线段之间的灰色。第一种方法是先用采样点拟合出一条二维曲线,然后计算L像素1=2Np (8)第二章:曲线与双向光流之间的匹配误差。但是,由于用二维点集拟合曲线的难度较大另一种方式是使用从所有采样点到双向光流的最短距离的平均值,其被公式化为:1Σn其中S和L分别表示地面实况清晰图像和模型输出Np是S和L的元素个数。感知损失。为了生成具有清晰结构的去模糊图像,一些方法[21,23,18]计算语义特征的损失,例如Patch-GAN损失和感知损失[12]。语义特征中的每个元素都对应MD= ni=1min(di1,di2),(6)到输入图像的局部区域,因此这种损失可以重点恢复一般内容,并进行3560表1.GOPRO测试数据集在性能和效率方面的比较结果方法Sun等人[28日][21]第二十一话Zhang等人[35]第三十五届SRN [29][19]第十九话我们的(A)我们的(B)PSNR24.6429.0829.1930.1029.5529.5729.81SSIM0.84290.91350.93060.93230.93400.93380.9368运行时12.1分钟3.1秒1.4秒0.4 s0.35秒0.01 s0.01 s模型大小54.1 MB303.6 MB37.1 MB33.6 MB15.0 MB3.1兆字节3.1兆字节恢复图像结构。然而,GAN [7]需要交替训练器和生成器,并仔细权衡训练器和生成器的训练时间。相反,感知损失是基于预先训练的VGG-Net,它不需要训练,因此感知损失更容易使用。因此,在本文中,我们使用虚拟损失作为内容损失,其可以公式化为:表2.烧蚀实验L=1<$φ(L)−φ(S)<$2,(9)2Nci iF其中φi表示VGG-16的第i层的特征图,在我们的实验中设置为12,并且Nc是φi(L)和φi(S)的元素的数量。头寸损失。为了更好地训练去模糊网络,我们添加了双向光流用于辅助监督。第一可变形卷积层的采样点的分布因此,位置损失是从点到光流的最短距离的平均值。此外,为了减少错误计算光流和对模型拟合能力的限制的影响,向损失添加裕度,即,仅使距离大于裕度的点被归一化。因此,最终的头寸损失公式为:1Σn应创建图像对。生成模糊图像的经典方法是将清晰图像与生成的模糊核进行卷积。但是,模拟的场景是有限的,仍然不同于相机捕获的真实模糊图像另一种方法是将高速相机捕获的短曝光帧平均化,以模拟长曝光的模糊图像,这些图像更真实,具有复杂的模糊。为了公平比较,我们使用[21]提出的GOPRO数据集同样,我们使用2103个图像对进行训练,使用1111个图像对进行测试。4.2.实验设置我们使用Xavier [5]初始化参数,AdamL位置=ni=1max(min(di1,di2),M),(10)[15]优化器来训练去模糊网络。 β1,β2和β 2分别设置为0.9、0.9和10−8采用多项式衰减策略衰减学习速率其中n是采样点的数量,M表示margin值。4. 实验在本节中,我们与最先进的图像去模糊方法进行了比较,并进行了消融实验,以评估所提出的光流引导深度去模糊网络的有效性。所有的实验都是在i7-6800K CPU和四个NVIDIA Geforce GTX 1080Ti GPU上进行的。这些模型是用Pytorch 1.1.0库实现的。4.1. 数据集为了训练所提出的端到端去模糊网络,需要一个包含模糊和清晰的大型训练数据集,从10−3到10−6,在2000个历元,在我们的实验中,衰减策略的功率设置为0.9培训过程大约需要44小时。实验表明,2000个epoch就足以使模型收敛。每个训练批次包含32个模糊地面真实图像块。每个补丁都通过RGB通道的翻转,旋转和排列来增强,然后裁剪为256×256大小。4.3. 与现有技术方法的我们评估了所提出的去模糊网络,并在720p图像的PSNR,SSIM [31],模型大小和推理时间定量结果如表1所示,其中我们的(B)和我们的(A)代表有和没有光流引导训练的网络扩张主干FD模块OG培训CCCCcCPSNR28.3429.0129.5729.81SSIM0.91240.92370.93380.93683561图5. GOPRO测试数据集上的视觉比较。有5个模糊的图像从不同的场景。从左到右:输入模糊图像,Nah等人的结果。[21],Tao等人的结果。[29]以及所提出的方法的结果。3562图6.由建议的去模糊网络生成的采样点的可视化分别我们的去模糊方法实现了最好的性能在国家的最先进的方法,具有最高的SSIM值和第二高的PSNR值。此外,所提出的网络可以去模糊1280×720图像,最快的速度,接近0.01s每幅图像,这是40×,比Tao等人快35倍[29] Kupyn et al. [19]分别。 总体而言,我们的方法实现了实时去模糊-环而不降低性能。此外,提出的网络具有最小的模型大小,接近0.8M参数,分别比Nah等人 [21]和Tao等人[29]小100倍和10倍关于VI-结果如图5所示。与基于深度学习的方法[21,29]相比,我们的方法恢复的图像在边缘更清晰,更锐利。去模糊图像的内容更忠实,例如,车牌的数字被完美地去模糊,[21][29]这是不可能的。4.4. 消融实验我们进行烧蚀实验来评估所提出的组件的有效性,包括扩张的主干、特征去卷积模块(FD模块)和光流引导训练(OG训练)。消融实验的结果总结在表2中。通过将骨干的所有膨胀率设置为1,并将颈部替换为残差块,我们建立了一个基线去模糊模型,其PSNR达到28.34 dB,SSIM达到0.9124。当用扩张的主干替换 主 干 时 , PSNR 提 高 了 0.67 dB , SSIM 提 高 了0.0113,这意味着扩张的主干可以从更大的感受野中提取更好的FD模块的有效性可通过比较第3列和第4列进行评价。它通过自适应调整接收场和权值获得了更好的性能,这意味着变形卷积比范数卷积更适合于去模糊任务。当使用光流引导训练时(第5列),由于额外的监督和有效的训练,它古代训练4.5. 特征反卷积模块的有效性图6示出了用于特征去卷积模块的第一可变形卷积的采样点的两个示例分布。从可视化结果可以看出,采样点的分布可以根据模糊输入图像中包含的模糊模式自适应地然而,常规卷积去模糊方法由于结构和参数固定,需要叠加更多的层以获得更大的感受野和更强的拟合能力,难以实现去模糊。此外,采样点的密集程度可以随模糊程度而变化。受观察的启发,采样点的分布可以用作区分性模糊检测特征[25],即采样点分布的变化越大,图像区域越模糊。因此,在我们的去模糊网络中用于预测采样点的子网络可以在微调时用于检测模糊区域。5. 结论本文提出了一种新的空间变反卷积神经网络用于动态场景去模糊.去模糊网络由两个调制的可变形卷积和一个轻量级的特征提取器提供动力。为了更好地训练网络,我们使用双向光流作为辅助监督。实验结果表明,与典型的基于深度学习的图像去模糊方法相比,该方法具有参数少、运行时间短的6. 确认本 工 作 得 到 国 家 自 然 科 学 基 金 项 目 61632018 和61825603的资助。3563引用[1] Huajin Chen,Jinwei Gu,Orazio Gallo,Ming-Yu Liu,Ashok Veeraraghavan,and Jan Kautz.Reblur2deblur:通过自监督学习对视频进行去模糊。在IEEE计算摄影国际会议论文集,第1-9页[2] Jifeng Dai,Haozhi Qi,Yuwen Xiong,Yi Li,GuodongZhang,Han Hu,and Yichen Wei.可变形卷积网络。在IEEE计算机视觉国际会议集,第764-773页[3] Alexey Dosovitskiy、Philipp Fischer、Eddy Ilg、PhilipHausser、Caner Hazirbas、Vladimir Golkov、Patrick VanDer Smagt、Daniel Cremers和Thomas Brox。Flownet:使 用 卷 积 网 络 学 习 光 流 。 在 IEEE InternationalConference on Computer Vision的Proceedings,第2758-2766页[4] 贡纳·法内巴克。基于多项式展开的两帧运动估计斯堪的纳维亚图像分析会议论文集,第363-370页,2003年[5] 泽维尔·格洛特和约舒亚·本吉奥了解训练深度前馈神经网络的困难。在第十三届国际艺术情报和统计会议的筹备会上,第249-256页[6] Dong Gong,Jie Yang,Lingqiao Liu,Yanning Zhang,Ian Reid,Chunhua Shen,Anton Van Den Hengel,andQinfeng Shi.从运动模糊到运动流:一种用于消除异构运动模糊的深度学习解决方案。在Proceedings of theIEEEConferenceonComputerVisionandPatternRecognition,第2319-2328页[7] 伊恩·古德费洛、让·普盖特-阿巴迪、迈赫迪·米尔扎、许冰、大卫·沃德-法利、谢尔吉尔·奥扎尔、阿伦·库维尔和约舒亚·本吉奥。生成性对抗网。神经信息处理系统进展论文集,第2672-2680页,2014年[8] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.深入研究整流器:超越人类水平的图像分类性能。在IEEE计算机视觉国际会议论文集,第1026-1034页[9] Tae Hyun Kim,Byeongjoo Ahn和Kyoung Mu Lee。动态场景去模糊。在Proceedings of the IEEE InternationalConference on Computer Vision,第3160[10] Tae Hyun Kim和Kyoung Mu Lee。免分割动态场景去模糊。在Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition,第2766-2773页[11] Eddy Ilg , Nikolaus Mayer , Tonmoy Saikia , MargretKeuper,Alexey Dosovitskiy,and Thomas Brox.Flownet2.0:深度网络光流估计的演变。在IEEE计算机视觉和模式识别会议上,第2462-2470页,2017年[12] 贾斯汀·约翰逊,亚历山大·阿拉希,李飞飞。实时风格转换和超分辨率的感知损失。在欧洲计算机视觉会议论文集,第694-711页中。施普林格,2016年。[13] Jiwon Kim,Jung Kwon Lee,and Kyoung Mu Lee.使用非常深的卷积网络实现精确的图像超分辨率。在IEEE计算机视觉和模式识别会议论文集,第1646-1654页[14] Tae Hyun Kim,Seungjun Nah,and Kyoung Mu Lee.使用局 部自 适应模 糊模 型的动 态视 频去模 糊。IEEETransactionsonPatternAnalysisandMachineIntelligence,40(10):2374[15] Diederik P Kingma和Jimmy Ba。Adam:随机最佳化的方法。arXiv预印本arXiv:1412.6980,2014。[16] Dilip Krishnan和Rob Fergus使用超拉普拉斯先验的快速图像去卷积。在Proceedings of the Advances in NeuralInformation Processing Systems,第1033-1041页[17] Till Kroeger,Radu Timofte,Dengxin Dai,and Luc VanGool.使用密集逆搜索的快速光流在欧洲计算机视觉会议论文集,第471[18] OrestKupyn、VolodymyrBudzan、MykolaMykhailych 、 DmytroMishkin 和 Jiˇr´ıMatas 。Deblurgan:使用条件对抗网络进行盲运动去模糊。在IEEE计算机视觉和模式识别会议的论文集,第8183-8192页[19] Orest Kupyn , Tetiana Martyniuk , Junru Wu , andZhangyang Wang.Deblurgan-v2:去模糊(数量级)更快更好。在IEEE计算机视觉国际会议论文集,第8878-8887页[20] 李仁汉,潘金山,赖伟胜,高长新,桑农,杨明轩。学习一种判别先验的盲图像去模糊方法。在IEEE计算机视觉和模式识别会议集,第6616-6625页[21] Seungjun Nah,Tae Hyun Kim,and Kyoung Mu Lee.深度多尺度卷积神经网络动态场景去模糊。在IEEE计算机视觉和模式识别会议论文集,第3883-3891页[22] 潘金山,孙德清,汉斯佩特·菲斯特,杨明轩.使用暗通道先验的盲图像去模糊。在IEEE计算机视觉和模式识别会议论文集,第1628-1636页[23] Sainandan Ramakrishnan、Shubham Pachori、Aalok Gan-gopadhyay和Shanmuganathan Raman。用于运动去模糊的深度生成滤波器。在IEEE计算机视觉国际会议论文集,第2993- 3000页[24] 齐杉、贾娅·贾和阿西姆·阿加瓦拉。高品质的运动,从一个单一的图像去模糊。Acm图形学报(tog),27(3):73,2008。[25] Jianping Shi,Li Xu,and Jiaya Jia.判别模糊检测功能。在IEEE计算机视觉和模式识别会议论文集,第2965-2972页[26] Karen Simonyan和Andrew Zisserman用于大规模图像识别 的 非 常 深 的 卷 积 网 络 。 arXiv 预 印 本 arXiv :1409.1556,2014。3564[27] Shuochen Su , Mauricio Delbracio , Jue Wang ,Guillermo Sapiro,Wolfgang Heidrich,and Oliver Wang.用于手持相机的深度视频去模糊。在IEEE计算机视觉和模式识别会议论文集,第1279-1288页[28] Jian Sun,Wenfei Cao,Zongben Xu,and Jean Ponce. 学习用于非均匀运动模糊去除的卷积神经网络。IEEE计算机视觉和模式识别会议论文集,第769-777页,2015年。[29] 陶新,高红云,沈晓勇,王珏,贾继亚.用于深度图像去模糊的尺度递归网络。在IEEE计算机视觉和模式识别会议论文集,第8174-8182页[30] 王华,苏德伟,刘闯闯,金龙村,孙西安芳,彭心怡.用于视频超分辨率的可变形非局域IEEE Access,7:177734[31] ZhouWang ,Alan C Bovik ,Hamid R Sheikh ,Eero PSimon- celli,et al.图像质量评估:从错误可见性到结构相 似 性 。 IEEE Transactions on Image Processing , 13(4):600[32] Li Xu,Jimmy SJ Ren,Ce Liu,and Jiaya Jia.用于图像反卷积的深度卷积神经网络。在神经信息处理系统进展的程序中,第1790-1798页[33] Yanyang Yan,Wenqi Ren,Yuanfang Guo,Rui Wang,and Xiaoshun Cao.图像去模糊通过极端通道优先。在IEEE计算机视觉和模式识别会议论文集,第4003-4011页[34] 张洪光,戴玉超,李洪东,和彼得·科纽兹.用于图像去模糊的深度堆叠层次多块网络。在IEEE计算机视觉和模式识别会议论文集,第5978- 5986页[35] Jiawei Zhang,Jinshan Pan,Jimmy Ren,Yibing Song,Lin- chao Bao,Rynson WH Lau,and Ming-Hsuan Yang.使用空间变化递归神经网络的动态场景去模糊在IEEE计算机视觉和模式识别会议论文集,第2521- 2529页[36] Yulun Zhang,Yapeng Tian,Yu Kong,Bineng Zhong,and Yun Fu.用于图像超分辨率的残差稠密网络在IEEE计算机视觉和模式识别会议论文集,第2472-2481页[37] Xizhou Zhu,Han Hu,Stephen Lin,and Jifeng Dai.可变形Convnets v2:更易变形,效果更好。在IEEE计算机视觉和模式识别会议论文集,第9308-9316页
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功