没有合适的资源?快使用搜索试试~ 我知道了~
46411个2个https://github.com/单幅图像去模糊Sung-Jin Cho*,1Seo-Won Ji*,1Jun-Pyo Hong1 Seung-Won Jung†,2 Sung-Jea Ko2高丽大学{sjcho,swji,jphong}@ dali.korea.ac.kr,{swjung83,sjko}@korea.ac.kr摘要由粗到精的策略已被广泛用于单幅图像去模糊网络的结构设计。常规方法通常将具有多尺度输入图像的子网络堆叠,并且从底部子网络到顶部子网络逐渐提高图像的清晰度,从而不可避免地产生高计算成本。为了实现快速、准确的去模糊网络设计,我们重新审视了由粗到精的策略,并提出了一种多输入多输出U-网(MIMO-UNet)。MIMO-UNet具有三个不同的特征。首先,MIMO-UNet的单个编码器采用多尺度输入图像以减轻训练难度。其次,MIMO-UNet的单个解码器输出具有不同尺度的多个去模糊图像,以使用单个U形网络来模拟多级联U形网络。 最后,引入非对称特征融合,以有效的方式合并多尺度特征。在GoPro和Real-Blur数据集上进行的大量实验表明,所提出的网络在准确性和计算复杂度方面优于最先进的方法。源代码可用于研究目的.1. 介绍单图像去模糊的目的是从模糊图像中恢复潜在的清晰图像[3]。即使在过去几十年中相机模块的快速发展,当相机和/或对象移动时,模糊伪影仍然存在。模糊图像不仅在视觉上令人不愉快,而且显著降低了视觉系统(包括监视[32]和自动驾驶系统[4])的性能,因此需要准确有效的图像去毛刺技术。由于深度学习的成功,基于卷积神经网络(CNN)的图像去模糊方法已被广泛研究并显示出有前途的性能。早期基于CNN的图像去模糊方法*平等贡献†通讯作者图1.在PSNR和运行时间方面比较了所提出的方法和传统方法。方法的运行时间报告为使用我们环境中每个方法的发布测试代码测量的运行时间(已填充)和每篇论文中提供的运行时间(空白)。ods [30,7,1,27]通常利用CNN作为模糊核估计器并构建两阶段图像去模糊框架,即、基于CNN的模糊核估计阶段和基于核的去卷积阶段。另一方面,最近的基于CNN的图像去模糊方法[20,22,23,31,5]旨在以端到端的方式直接学习模糊清晰图像对之间的复杂关系。作为一种基础技术,引入了用于动态场景去模糊的深度多尺度CNN(DeepDeflur)[20],以直接从模糊图像回归清晰图像。DeepDeflur由多个堆叠的子网络组成,以处理多尺度模糊,其中每个子网络采用缩小的图像,并以从粗到细的方式逐渐恢复清晰的图像。受DeepDeflur成功的启发,已经引入了各种基于CNN的图像去模糊方法[22,23,31,5],具有显着的性能改进。虽然这些方法试图在不同方面提高去模糊性能,但它们的粗到细策略是相似的,因为多个子网络是堆叠的。换句话说,从粗到细的网络设计原理已被证明在图像去模糊中是有效chosj95/MIMO-UNet4642X(a)(b)(c)(d)图2.从粗到细的图像去模糊网络架构的比较:(a)DeepDeflur,(b)PSS-NSC,(c)MT-RNN,以及(d)提出的MIMO-UNet。然而,这样的效率是以计算复杂性和存储器使用的不可避免的增加为代价的,使得常规方法难以用于成本和时间敏感的环境,诸如移动设备、车辆和机器人。最近,提出了一种轻量级CNN用于高效的单图像去模糊[33]。具体来说,通过使用光流和全局运动的模糊图像作为额外的监督网络训练,他们设计了一个浅的架构相比,传统的去模糊网络。然而,这种浅架构未能获得与现有技术方法相当的去模糊准确度。在本文中,我们重新审视粗到细的计划,并提出了一种新的去模糊网络称为多输入多输出UNet(MIMO-UNet),可以处理多尺度模糊,计算复杂度低。所提出的MIMO-UNet是具有三个不同特征的基于单个编码器-解码器的U形网络。首先,MIMO-UNet的单个解码器输出多个去模糊图像,因此我们将我们的解码器命名为多输出单解码器(MOSD)。M0SD是简单的,但是可以模仿由堆叠的子网络组成的常规网络架构,并且引导解码器层以粗略到精细的方式逐渐恢复潜在的清晰图像。第二,MIMO-UNet的单个编码器获取多尺度输入图像;因此,我们的编码器被称为多输入单编码器(MISE)。最后,非对称特征融合(AFF)的引入,以合并多尺度特征,在一个有效的方式。AFF采用来自不同尺度的特征,并且合并跨编码器和解码器的多尺度信息流以提高去模糊性能。大量的实验证明了所提出的MIMO-UNet的优越性相比,国家的最先进的方法在PSNR以及计算复杂度如图1所示。2. 相关作品在本节中,我们回顾了采用由粗到细策略的常规图像去模糊方法。2.1. DeepDeflur作为一项开创性的工作,DeepDeflur通过采用粗到精的策略,以端到端的方式直接学习模糊-清晰图像对之间的关系[20]。Nah等人还介绍了名为GoPro数据集的真实世界图像去模糊数据集。具体地,使用序列对于使用GoPro相机以240fps捕获的清晰图像,通过如下对连续清晰图像进行平均来获得模糊图像B:1M-1B=S[i],(1)Mi=0时其中M和S[i]分别表示采样的清晰图像和第i个清晰图像的数量。 为了构建模糊和清晰的图像对用于训练,地面实况通过从采样的清晰图像中选择中间图像来选择B的清晰图像为了在CNN中采用从粗到精的策略来逐渐恢复潜在的清晰图像,DeepDeflur使用了多个子网络堆栈,如图2(a)所示。每个子网络由保持输入特征图的空间分辨率的卷积层序列组成。不同尺度的输入图像被馈送到子网络中,并且来自较粗尺度子网络的所得图像与较细尺度子网络的输入级联,以实现粗到细的信息传递。重建-4643n✓Dn✓Dn“S=HPn(✓n,✓)n⇥⇥KK-⇥⇥.Σ✓M✓MΣEBKK-1K-1K-1KDeepDeflur的处理过程公式化如下:Sn=HD(Bn;(Sn+1)“) +Bn,(2)其中HD 是DeepDeflur参数的第n由✓D表 示。 Bn和Sn分别是第n个尺度的模糊和去模糊图像,表示上采样操作。2.2. PSS-NSC受DeepDeflur成功的启发,Gao等人提出了参数选择性共享和嵌套跳过连接(PSS-NSC)[5]。如图2(b)所示,PSS-NSC的架构类似于DeepDeflur的架构,但具有两个不同的特征。首先,每个子网络被构造为具有对称跳过连接的基于编码器-解码器的U-Net,其直接将特征图从编码器传输到解码器。其次,由于每个子网络通常旨在从模糊图像恢复清晰图像,因此大多数网络参数在子网络之间共享。因此,PSS-NSC的存储器需求显著降低,但计算复杂度仍然很高,因为最终的清晰图像是在通过三个子网络之后生成的。PSS-NSC的重建过程公式化如下:3. 该方法我们提出MIMO-UNet,充分利用从输入图像提取的多尺度特征。 图3示出MIMO-UNet的整体架构。MIMO-UNet的架构基于单个U-Net [26],其具有显著的修改以用于有效的多尺度去模糊。设计了MIMO-UNet的 编 解 码 器三 个 编 码 器 块 ( EB ) 和 解 码 器 块(DB)。下面的小节详细介绍了MIMO-UNet的三个特殊功能,即:、MISE、MOSD和AFF。3.1. 多输入单编码器已经证明,可以从多尺度图像中更好地处理图像中的不同模糊水平[19,18]。各种基于CNN的去模糊方法也已经通过将具有不同尺度的模糊图像作为每个子网络的输入来采用这种思想[20,29,31,5]。在我们的MIMO-UNet中,不是一个子网络,而是一个EB将具有不同比例的模糊图像作为输入。换句话说,除了从上述EB提取的缩小尺寸的特征之外,我们还从下采样的模糊图像中提取特征,然后组合这两个特征。通过采取优势的互补信息,从缩小尺寸的功能和功能,可从下采样的图像,我们的EB有望有效地处理不同的图像模糊。 使用多尺度图像作为输入对于单个U-Net,也已证明在其他P(✓n,✓P)(Bn;(S(n+1)“)+Bn,(3)例如深度图超分辨率[6]和对象去其中,HPPP表示PSS-NSC的第n个子网络,其中不包括参数✓P和共享参数✓P。2.3. MT-RNN多时间递归神经网络(MT-RNN)[22]的网络架构在图2(c)中示出。在MT-RNN中,单个U形网络被重复七次,并且在前一次迭代中来自解码器的特征图被转移到下一次迭代中的编码器,作为绿色箭头。对于每次迭代,MT-RNN被训练以预测获得的平均图像使用等式中的不同数量的M1,其中M减小随着迭代的进行。由于反复应用在单个U型网络中,MT-RNN的记忆容量较低保护[21]。我 们 首 先 使 用 如 图 4 ( a ) 所 示 的 浅 卷 积 模 块(SCM)从下采样图像中提取特征。考虑到效率,我们使用两叠33和11卷积层。 我们连接- 来自具有输入Bk的最后11层的特征,以及使用附加的11卷积层。SCM在第k级的输出被表示为SCM输出,其中我们将SCM用于第二级和第三级,如图3所示。或单片机输出与k1输出的融合水平EB,EB输出,我们应用具有K-1步长为2到EBoutt,结果为EBoutt#。 两个特征。EB输出Σ#和SCM输出具有相同的大小,因此但运行时效率低。PSS-NSC的重建过程公式化如下:可以被熔合。 在这里,我们利用一个功能注意力模型-规则(FAM)来主动地强调或抑制来自先前尺度的特征并且学习空间/通道重要性。nIi, Fio=HMBi;I比较SCM的特性。我们实验证明,该模块提高了性能相比到如在第2节中详细描述的一般特征融合方法四点三。其中i是指迭代索引。HM是一个网络特别是,。输出编号K-1和SCM输出是按元素的M T-由✓M参数化的RNN。 Bi、Ii和Fi分别是第i次迭代时的输入模糊图像、估计潜像和特征图。然后将相乘的特征通过3^3卷积层。3 3卷积层的输出4644.ΣK-112K3KKKSn=nn+1在水平或垂直方向上级联整个网络,允许自顶向下和自底向上的信息22123×w×32×宽×32AFF1CB1EB1×w×642二×w×642二DB1S-1AFF2CSCM2EB2×宽×128DB4四×宽×12824四B2×w×3EB3DB32二S“2SCM3B3×w ×34四S“3卷积级联残余块逐元素求和特征注意模块卷积转置图3.建议网络的架构用于去模糊的补充信息,并最终添加到EBoutt#将通过以下残差进一步细化块,其中我们使用了八个修改的残差块[31]。B3.2. 多输出单解码器在MIMO-UNet中,不同的DB具有不同大小的特征图。我们认为这些多尺度特征图可以用来模拟多堆叠子网络。与传统的粗到细网络在子网络的中间监督不同,我们将中间监督应用于每个DB。每个级别中的图像重建可以用公式表示如下:(一)EB输出EB输出EB输出SCM输出(c)第(1)款(EBout)SCM输出(b)第(1)款AFF输出o(DBn(AFFout;DBout))+Bn,n=1,2,n图4.子模块的结构:(a)SCM,(b)特征在-张力,和(c)〇(DBn(EBout))+Bn, n=3,(五)其中AF_out、EB_out和DB_out是n n n第n级非对称特征融合(AFF)模块,EB,以及DB,分别。由于DB的输出是特征图而不是图像,因此需要映射函数〇来生成中间输出图像,其中我们使用单个卷积。功能层3.3. 非对称特征融合在大多数常规的从粗到细的图像去模糊网络中,仅来自粗尺度子网络的特征被用于细尺度子网络,使得粗尺度子网络的特征不被使用。受尺度内特征之间的密集连接的启发[13],我们提出了一个非对称特征融合(AFF)模块,如图4(c)所示,以允许来自单个U-Net内不同尺度的信息流。每个AFF将所有EB的输出作为输入,并使用卷积层组合多尺度特征。AFF的输出被递送到其对应的DB。更具体而言是第一级和第二级AFF,AFF1和AFF2,公式如下:AFFout=AFF1EBout,. EB或Σ“,。EBoutΣ“CCC1×1转换调整大小调整大小调 整大小3×3Conv1×1转换3×3Conv1123K3×3Conv1×1转换3×3Conv1×1转换4645n信息流不灵活。一种特殊的方法是AFFout=AFF 。EBoutΣ#,EBout,.EBoutΣ“,(6)fl 〇w[35].其中AF_F_out表示第n个AF_F的输出。上-4646“#KFMSFRtkKK1图5.GoPro测试数据集上的几个示例为了清楚起见,显示了所得图像的放大部分从左上到右下:模糊图像,地面实况图像,以及分别由SRN,PSS-NSC,DMPHN,MT-RNN,MPRNet和MIMO-UNet++获得的结果图像sampling()和down-sampling()被应用,使得来自不同尺度的特征可以被级联。因此,MIMO-UNet的每个DB可以利用多尺度特征,从而提高去模糊性能。3.4. 损失函数类似地,对于其他多尺度去模糊网络,我们使用多尺度内容损失函数[20],其中我们发现L1损失比MSE损失产生更好的结果。我们的网络 含量损失L_cont定义如下:使特征空间中的输入和输出之间的距离最小化的辅助损失项已被广泛使用,并显示出有希望的结果[36,12,8,10,37]。由于去模糊的目的是恢复丢失的高频分量,因此必须减少频率空间中的差异。为此,我们提出了多尺度频率重建(MSFR)损失函数。MSFR损失测量频域中多尺度地面实况图像与去模糊图像之间的L1距离,如下所示:KX1k=1 不KL=X1k=1kF(S)-F(S)k,(8)其中K是级数。我们将损失除以用于归一化的总元素的数量tk最近的研究也表明辅助损失项在除了含量损失外,性能改善[11,9]。在图像增强和恢复任务中,其中表示将图像信号转换到频域的快速傅里叶变换(FFT)。用于训练我们的网络的最终损失函数确定如下:Ltotal=Lcont+λLMSFR,(9)kSk-Skk1,(7)Lcont=4647⇥图6.RealBlur测试数据集上的几个示例为了清楚起见,显示了所得图像的放大部分从左到右:分别由DeflurGAN-v2、SRN和MIMO-UNet++获得的模糊图像、地面实况图像和合成图像其中我们实验性地设置λ= 0。1.一、4. 实验4.1. 数据集和实施详细信息我们使用GoPro [20]和RealBlur [25]训练数据集来训练我们的模型,其中包括2,103和3,758对模糊和清晰的图像。使用GoPro和Real模糊测试数据集进行测试,其中图像对的数量分别为1,111和980。为了在GoPro测试数据集上进行测试,我们仅使用GoPro训练数据集来训练我们的模型。对于每次训练迭代,我们随机采样四个图像,然后随机裁剪大小为256 256的采样图像。对于数据增强,每个贴片以0.5的概率水平翻转。为了对GoPro数据集中的图像进行去模糊处理,我们对网络进行了3,000个epoch的训练,这些epoch足以用于对比。聚散学习率最初设置为10-4,每500个时期降低0.5倍对于RealBlur数据集中的图像去模糊,我们训练了1,000个epoch,并使用相同的初始学习率,但每200个epoch将其降低0.5倍。我们的实验在Intel i5-8400和NVIDIA Titan XP上进行4.2. 性能比较我们将MIMO-UNet与最先进的去模糊环网络进行了比较[20,31,5,35,29,22,23,33,28]。考虑到计算复杂度和去模糊准确度之间的权衡,我们评估了MIMO-UNet的以下三个变体:1)MIMO-UNet针对每个EB和DB采用8个残差块,2)MIMO-UNet+针对每个EB和DB采用20个残差块,以及3)MIMO-UNet++使用具有几何自集成的MIMO-UNet+来估计结果图像[16]。的4648†‡模型PSNRSSIM[15]第15话29.690.870SRN [31]31.380.909MPRNet [34]31.760.922MIMO-UNet+31.920.919MIMO-UNet++32.050.921表2. RealBlur测试数据集上的平均PSNR和SSIM [25]。方法康卡特按元素之和FAMPSNR31.6631.6031.73表 1.GoPro 测 试 数 据 集 上 的 平 均 PSNR 和 SSIM 具 有 和 的SAPHN 分 别 表 示 具 有 和 不 具 有 偏 移 的 模 型 。 我 们 对DMPHN采用堆叠(4)版本运行时间和参数以秒和百万表示报告了GoPro测试数据集上的定量结果表1中为了进行公平的比较,模型的运行时间被提供为使用我们的PC上的每个模型的发布的测试代码测量的运行时间(左)和每篇论文中报告的运行时间(右)。MIMO-UNet+和MIMO-UNet++比MIMO-UNet慢,但仍 然 分 别 在 0.014s 和 0.040s 内 执 行 去 模 糊 。 MIMO-UNet++的平均PSNR为32.68dB。MIMO-UNet的平均处理时间为0.008s,平均PSNR为31.73dB。这三个模型展示了准确性和计算复杂性之间的最佳权衡,如图1所示。由于堆叠的子网络,DeepDe模糊、SRN、PSS-NSC、DMPHN和SAPHN需要大的计算成本,如表1所示。与这些方法相比,MIMO-UNet+速度更快,但仍达到更高的PSNR分数。尽管SRN、PSS-NSC和MT-RNN采用的参数比所提出的方法少,但这些方法在过程中重复 使 用 参 数 , 因 此 它 们 比 我 们 最 慢 的 模 型 MIMO-UNet++慢。特别地,MIMO-UNet++是与MPRNet相比,在PSNR方面快4.05倍并且高0.02dB,MPRNet是传统方法中的最佳方法。基于单个网络的方法,如RADN和SVDN,实现了较高的运行效率相比,堆叠子网。然而,在运行时间和PSNR两者方面,MIMO-UNet 优 于 SVDM , 并 且 MIMO-UNet+ 优 于RADN。为了验证所提出的方法在真实情况下的有效性,我们还在最近的RealBlur数据集上评估了我们的如表2所列,MIMO-UNet++分别在PSNR和SSIM方面记录了最佳和第二佳性能。显示了GoPro和RealBlur测试数据集的几个结果图像表3.FAM消融研究MISEMOSDAFFMSFRPSNR参数。31.166.46X31.176.72X31.336.47X31.336.54XX31.386.73XX31.386.54XX31.396.80XXX31.466.8131.736.81XXXX表4.MIMO-UNet不同组件在GoPro测试数据集上的有效性分别在图5和图6中。为了重现结果,我们使用了作者发布的在每个数据集上训练的网络模型,即、SRN、PSS-NSC、DMPHN、MT-RNN和MPRNet分别用于GoPro数据集,并且DeflurGAN-v2和SRN分别用于RealBlur数据集。虽然由常规网络获得的所得图像与输入模糊图像相比表现出少得多的模糊,但是局部细节和结构没有被充分地去模糊,如可以从放大的图像区域注意到的,而我们的方法产生更清晰的图像。4.3. 消融研究我们进行了实验来分析MIMO-UNet的每个组件在GoPro测试数据集上的有效性。首先,我们评估了不同的特征融合方法在MISE的有效性。将所提出的FAM与常规融合方法进行比较:级联和逐元素求和,并且实现了如表3中列出的最高性能。其次,我们测试了没有MOSD、MISE、AFF和/或MSFR的MIMO-UNet。为了比较,在不使用四个分量中的任何一个的情况下训练基线模型,得到31.16dB的平均PSNR。如表4所示,与基线模型相比,MOSD将PSNR提高了0.17dB。的模型PSNRSSIM运行时参数。[20]第二十话29.230.916N/A4.3311.7SRN [31]30.260.9340.3421.876.8PSS-NSC30.920.9420.9851.62.84DMPHN [35]31.200.9451.0610.42421.7[29]第二十九话萨芬‡[29]MT-RNN [22]31.8532.0231.150.9480.9530.945N/A不适用0.0630.340.770.07N/AN/A2.6RADN [23]31.760.953N/A0.038N/ASVDN [33]29.810.937N/A0.01N/AMPRNet [34]32.660.9590.1620.1820.1MIMO-UNet31.730.9510.0086.8MIMO-UNet+32.450.9570.01716.1MIMO-UNet++32.680.9590.04016.14649图7. 对象检 测的示例来 自(a )模 糊图像和( b )通 过MIMO-UNet++获得的结果图像MISE的独立使用显示出边际效应,因为多尺度信息难以在简单的U-Net中使用。然而,当与MOSD一起使用时,MISE有助于PSNR的进一步性能改善0.05 dB。与基线模型相比,AFF将PSNR提高了0.17 dB,当AFF与MISE一起使用时,性能增益进一步提高到0.23 dB。使用MISE、MOSD和AFF,网络实现了0.30 dB的PSNR,最后,使用MSFR训练的网络实现了比基线高0.57 dB的PSNR。4.4. 目标检测性能评估当用作预处理技术时,单个图像去模糊也可以提高计算机视觉任务的性能。目标检测是其中单个图像去模糊可用于提高性能的最佳实例之一。随着CNN的进步,对象检测方法已经采用CNN并取得了显著的改进[17,24]。然而,这些方法中的大多数假设无模糊输入图像,并且因此它们经常无法检测模糊图像中的对象。图7(a)示出了PFPNet [13]的失败案例,PFPNet [13]是最先进的对象检测器之一,在从模糊图像中检测对象时,描绘了其对模糊输入的脆弱性。当将相同的PFPNet应用于使用MIMO-UNet++获得的去模糊图像时,可以成功地检测到许多假阴性示例,如图7(b)所示。图8.目标检测性能评估。在测量[14]之后,我们使用从清晰图像获得的边界框作为地面实况。最后,我们比较了所提出的MIMO-UNet++与其他去模糊技术的有效性方面的对象检测任务作为预处理。类似于先前的实验,使用具有作者提供的代码的PSS-NSC和DMPHN进行比较。虽然PFPNet是使用包含20个不同类别的PASCAL VOC数据集[2]进行训练的,但GoPro数据集中的模糊图像主要只包含其中的三个类别,即、车、人、盆栽。因此,测量每个对象类别的平均精度(AP)用于性能评价。如图8所示,所提出的MIMO-UNet++在对象检测中具有最佳性能。此外,由于所提出的方法记录了最快的执行时间,它是最适合作为对象检测的预处理技术。5. 结论本文提出了一种快速准确的图像去模糊网络。我们提出了一个具有不同特征的单个U-网络,而不是堆叠多个子网络进行粗到细去模糊,从而实现更简单但更有效的粗到细去模糊。网络的编码器被修改为采取多尺度输入图像并组合来自不同来源的特征。网络的解码器也被改变为在解码期间输出多尺度去模糊图像,使得可以更好地执行从粗到细的去模糊。还引入了特征融合方法,以非对称地组合多尺度特征来实现动态图像去模糊。实验结果表明,我们的方法优于其他传统的方法方面的速度和精度的权衡。确认这项工作得到了三星电子公司的支持有限公司(IO201210 -08026-01)4650引用[1] 艾扬·查克拉巴蒂盲运动去模糊的神经方法。以Eur.Conf. Comput. 目视,第221[2] Mark Everingham , Luc Van Gool , Christopher KIWilliams,John Winn,and Andrew Zisserman.pascal视觉对象类(voc)的挑战。 Int. J. Comput. 目视,88(2):303[3] Rob Fergus、Barun Singh、Aaron Hertzmann、Sam TRoweis和William T Freeman。从单张照片中消除相机抖动。ACM SIGGRAPH 2006论文,第787-794页2006年[4] Uwe Franke和Armin Joos城市交通场景理解的实时立体视觉。在2000年IEEE 智能车辆研讨会 (Cat. No. 00 TH8511),第273-278页。IEEE,2000年。[5] Hongyun Gao,Xin Tao,Xiaoyong Shen,and Jiaya Jia.基于参数选择共享和嵌套跳跃连接的动态场景去模糊在IEEE会议Comput. 目视模式识别,第3848-3856页[6] Chunle Guo , Chongyi Li , Jichang Guo , RunminCong,Huaju Fu,and Ping Han.用于深度图超分辨率的分层特征驱动的IEEE传输图像处理。,28(5):2545[7] Michal Hradisˇ , JanK otera , Pavel Zemcık , and FilipSˇroubek.用于直接文本去模糊的卷积神经网络 在英国。马赫目视Conf. ,第10卷,第2页,2015。[8] 市村直之学习卷积自动编码器的空间频率损失。arXiv预印本arXiv:1806.02336,2018。[9] Andrey Ignatov 、 Nikolay Kobyshev 、 Radu Timofte 、Kenneth Vanhoey和Luc Van Gool。在具有深度卷积网络的移动设备上拍摄数码单反质量的照片 在Int. 确认补偿目视,第3277-3285页[10] 李明江等生成模式的聚焦频率损失arXiv预印本arXiv:2012.12821,2020。[11] Jianbo Jiao,Ying Cao,Yibing Song,and Rynson Lau.看得更深:单目深度估计与语义助推器和注意力驱动的损失。 以Eur. Conf. Comput.目视,第53-69页[12] 贾斯汀·约翰逊,亚历山大·阿拉希,李飞飞。实时风格转换和超分辨率的感知损失。以Eur.确认补偿目视,第694-711页[13] Seung-Wook Kim 、 Hyong-Keun Kook 、 Jee-YoungSun、Mun-Cheon Kang和Sung-Jea Ko。用于目标检测的并行特征金字塔网络 以Eur. Conf. Comput. 目视,第234-250页[14] OrestKupyn、VolodymyrBudzan、MykolaMykhailych 、 DmytroMishkin 和 Jiˇr´ıMatas 。Deblurgan : 使用 条 件对 抗网 络进 行盲 在 IEEE会 议Comput. 目视模式识别,第8183[15] Orest Kupyn , Tetiana Martyniuk , Junru Wu , andZhangyang Wang.Deblurgan-v2:去模糊(数量级)更快更好。在国际会议计算中目视,第8878- 8887页[16] Bee Lim , Sanghyun Son , Heewon Kim , SeungjunNah,and Kyoung Mu Lee.增强型深度残差网络图像超分辨率。 在IEEE会议Comput. 目视模式识别Worksh. ,第136-144页[17] 林宗义、普里亚·戈亚尔、罗斯·格希克、何开明和彼得·多尔·拉尔。密集目标检测的焦面损失。 在IEEE会议Comput. 目视模式识别,第2980-2988页,2017年。[18] S. Liu,H. Wang,J.Wang和C.锅金字塔统计的模糊核界估计 IEEE Trans. 电路系统视频技术,26(5):1012[19] Tomer Michaeli和Michal Irani使用内部补片递归盲去模糊。 以Eur. Conf. Comput. 目视,第783-798页[20] Seungjun Nah,Tae Hyun Kim,and Kyoung Mu Lee. 深度多尺度卷积神经网络动态场景去模糊。在IEEE Conf.Comput.目视模式识别,第3883-3891页[21] YanweiPang , TiancaiWang , RaoMuhammadAnwer,Fa- had Shahbaz Khan,and Ling Shao.用于单次激发探测器的高效特征化图像金字塔网络在IEEEConf. Comput. 目视模式识别,第7336[22] Dongwon Park , Dong Un Kang , Jisoo Kim , and SeYoung Chun. 用于渐进式非均匀单图像去模糊的多时间递归神经网络。以Eur.确认补偿目视,第327- 343页[23] Kuldeep Purohit和AN Rajagopalan。区域自适应密集网络,用于高效的运动去模糊。在AAAI,第11882-11889页[24] Joseph Redmon,Santosh Divvala,Ross Girshick,andAli Farhadi.你只看一次:统一的实时对象检测。在IEEE Conf. Comput.目视模式识别,第779-788页[25] Jaesung Rim , Haeyun Lee , Jucheol Won , andSunghyun Cho.用于学习和基准去模糊算法的真实世界模糊数据集。 以Eur. Conf. Comput. 目视,第184[26] Olaf Ronneberger , Philipp Fischer , and ThomasBrox.U-网:用于生物医学图像分割的卷积网络医学图像计算和计算机辅助干预,第234-241页,2015年[27] ChristianJSchuler,MichaelHirsch,StefanHarmeling , andBernhardScho¨ l k opf.学 习去 模糊。IEEETrans. Pat-tern Anal.马赫内特尔,38(7):1439-1451,2015中所述。[28] Ziyi Shen , Wenguan Wang , Xiankai Lu , JianbingShen,Haibin Ling,Tingfa Xu,and Ling Shao.人类感知的运动去模糊。在Int. Conf. Comput. 目视,第5572[29] Maitreya Suin,Kuldeep Purohit,and AN Rajagopalan.用于自适应运动去模糊的空间关注块层次网络。在IEEE Conf. Comput.目视模式识别,第3606-3615页[30] Jian Sun,Wenfei Cao,Zongben Xu,and Jean Ponce.学习用于非均匀运动模糊去除的卷积神经网络在IEEEConf. Comput.目视模式识别,第769-777页[31] 陶新,高红云,沈晓勇,王珏,贾继亚用于深度图像去模糊的尺度递归网络在IEEE Conf. Comput.目视模式识别,第8174- 8182页4651[32] Christopher Thorpe , Feng Li , Zijia Li , Zhan Yu ,David Saunders,and Jingyi Yu.视频监控数据安全的互质模糊方案IEEE传输模式分析马赫在-告诉。,35(12):3066[33] 圆圆、苏伟、马丹丹。利用光流引导训练的空间变反卷积网络实现了有效的动态场景去模糊。在IEEE Conf.目视模式识别,第3555-3564页[34] Syed Waqas Zamir 、 Aditya Arora 、 Salman Khan 、Munawar Hayat 、 Fahad Shahbaz Khan 、 Ming-HsuanYang和Ling Shao。多阶段渐进式图像恢复。在IEEEConf. Comput. 目 视 模 式 识 别 , 第 14821-14831 页 ,2021。[35] 张洪光,戴玉超,李洪东,和彼得·科纽兹.用于图像去模糊的深度堆叠层次多块网络 在IEEE会议Comput. 目视模式识别,第5978-5986页[36] Hang Zhao,Orazio Gallo,Iuri Frosio,and Jan Kautz.神经网络图像恢复的损失函数IEEETrans. Comput.伊玛格,3(1):47[37] Bolun Zheng , Shanxin Yuan , Gregory Slabaugh , andAles Leonardis.用可学习的带通滤波器进行图像去噪。在IEEE Conf. Comput.目视模式识别,第3636- 3645页
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Android圆角进度条控件的设计与应用
- mui框架实现带侧边栏的响应式布局
- Android仿知乎横线直线进度条实现教程
- SSM选课系统实现:Spring+SpringMVC+MyBatis源码剖析
- 使用JavaScript开发的流星待办事项应用
- Google Code Jam 2015竞赛回顾与Java编程实践
- Angular 2与NW.js集成:通过Webpack和Gulp构建环境详解
- OneDayTripPlanner:数字化城市旅游活动规划助手
- TinySTM 轻量级原子操作库的详细介绍与安装指南
- 模拟PHP序列化:JavaScript实现序列化与反序列化技术
- ***进销存系统全面功能介绍与开发指南
- 掌握Clojure命名空间的正确重新加载技巧
- 免费获取VMD模态分解Matlab源代码与案例数据
- BuglyEasyToUnity最新更新优化:简化Unity开发者接入流程
- Android学生俱乐部项目任务2解析与实践
- 掌握Elixir语言构建高效分布式网络爬虫
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功