没有合适的资源?快使用搜索试试~ 我知道了~
4382同时进行立体视频去模糊和场景流估计Liyuan Pan1,2,Yuchao Dai2,Miaomiao Liu3,2 and Daughh Porikli21西北工业大学自动化学院西安2澳大利亚国立大学工程研究学院,澳大利亚3Data61,CSIRO,堪培拉,澳大利亚panliyuan@mail.nwpu.edu.cn,{yuchao.dai,miaomiao.liu,fatih.porikli}@ anu.edu.au摘要由于摄像机与动态对象之间的相对运动以及较大的深度变化,室外场景的视频常常显示出令人不快的模糊现有的作品通常侧重于单眼视频去模糊。在本文中,我们提出了一种新的方法去模糊立体视频。特别地,我们利用关于场景的分段平面假设,并利用场景流信息去模糊图像。与使用预先计算的场景流的现有方法[31]不同,我们提出了一个单一的框架来联合估计场景流和去模糊图像,其中来自场景流估计和模糊信息的运动线索可以相互加强,并产生比传统场景流估计或立体去模糊方法更好的结果。我们在两个可用的数据集上对我们的方法进行了广泛的评估,并在流量估计和消除模糊效应方面取得了显着的改进。1. 介绍图像去模糊的目的是从一幅或多幅图像中恢复出潜在的清晰图像,是图像处理和计算机视觉领域的一项基本任务。图像模糊可能由各种原因引起,例如,光学像差[30]、介质扰动[18]、温度变化[23]、散焦[33]和运动[4,10,17,34,42]。模糊不仅降低了图像的质量,导致重要细节的丢失,而且还阻碍了进一步的分析。图像去模糊已经被广泛研究,并且已经提出了各种方法。在这项工作中,我们专注于运动引起的图像模糊。运动模糊在诸如自动驾驶的现实世界应用中广泛遇到[5,7]。相机和对象的运动模糊效果变得更加明显时,相机的曝光时间增加,由于低光条件。通常使用内核[17,21]对模糊效果进行建模。在运动模糊下,(a) 原始模糊图像(b) Kim和Lee CVPR 2015 [16](c) Sellent等人[31]第三十一话(a) 我们图1. 户外场景下的立体去模糊效果。(a)KITTI自动驾驶基准数据集的两个样本。(b) [16]的去模糊结果(c)[31]的去模糊结果(d)我们的去模糊结果。与现有的单目和立体去模糊方法相比,该方法在场景中大运动区域的去模糊效果最好。最好在屏幕上以彩色显示。2D或3D [16]。对于同时存在相机运动和多个移动对象的场景,4383原则上,为每个像素定义核。因此,传统的模糊去除方法,例如[2,10,26,40],不能直接应用,因为它们被限制为单个或固定数量的模糊核,使得它们在解决一般运动模糊问题方面较差。在另一方面,由于Middlebury [29]和KITTI [7]等大型基准数据集的可用性,基于立体的深度和运动估计在过去十年中取得了重大进展这些基准提供了具有有意义的对象类和相关地面实况注释的真实场景。基于立体声的运动估计的成功自然促使更先进的基于立体声的去模糊解决方案,从而有希望实现更准确的运动估计以补偿运动模糊。最近,Sellentet al. [31]提出了利用立体信息来帮助具有挑战性的视频去模糊任务,其中分段刚性3D场景流表示用于经由局部同态来估计运动模糊核。它提出了一个强有力的假设,即即使在不利的条件下,也可以可靠地估计虽然他们在合成和真实数据上都报告了有利的结果,但所有实验都局限于室内场景。围绕运动和模糊的现象可以被看作是一个先有鸡还是先有蛋的问题:更有效的运动模糊去除需要更精确的运动估计。然而,运动估计的精度在很大程度上取决于图像的质量.我们认为,利用颜色亮度恒定性的场景流估计方法可能会受到模糊图像的阻碍。在图2中,我们比较了不同模糊图像上的现有技术解决方案的场景流估计结果。可以观察到,场景流估计性能快速地确定。图像模糊。在这里,我们的目标是在一个统一的框架内同时解决上述两个问题我们的动机是运动估计和视频去模糊相互受益,即,更好的场景流估计将导致更好的去模糊结果,而更干净的图像将导致更好的流估计。我们解决了一个更一般的模糊问题,这不仅是我们将我们的问题定义为“广义立体去模糊”,其中移动的立体摄像机观察具有不同深度的动态场景。我们提出了一个新的管道(见图)。4用于同时估计3D场景流和去模糊图像。使用我们的公式,我们在许多真实的具有挑战性的场景中获得了显着的改善1.一、我们工作的主要贡献如下:• 我们提出了一种新的联合优化框架来模拟估计场景流和去模糊LA。动态场景的帐篷图像我们的去模糊目标受益于改进的场景流估计和估计的场景结构。同样,现场(a) 模糊图像GT流(b)Menze CVPR 2015 [25](c)[31]第三十一话(下)图2. 室外场景的场景流估计结果。(a)来自KITTI自动驾驶基准数据集的模糊帧。 (b)估计流量[25]。 (c)估计流量[31]。(d) 我们的流量估计结果。与KITTI数据集上排名第1和第2的这两种最先进的方法相比,我们的方法实现了最好的性能,特别是对于场景中的大运动区域。最好在屏幕上以彩色显示。流目标允许导出更精确的逐像素空间变化模糊核。• 基于分段平面假设,我们得到了一个结构化的模糊核模型。更具体地,相同超像素中的像素的光流是一致的。由一个单一的单应性(见第节。第3.1节)。• 正如我们的实验表明,我们的方法可以完全处理复杂的现实世界的场景,描绘快速移动的物体,相机运动,不受控制的光照条件和阴影。2. 相关工作模糊去除是一个不适定问题,因此需要某些假设或附加约束来正则化解空间。已经提出了许多方法来解决这个问题[16,17,31,34],可以分为两组:基于单眼的方法和基于双眼的方法。基于单目的方法通常假设捕获的场景是静态的并且具有恒定的深度。基于这些假设,从单个图像估计均匀或非均匀模糊核[10,12,14]。Hu等人[14]提出联合估计深度分层并从单个模糊图像中去除非均匀模糊。虽然这种统一的框架是有前途的,但需要用于深度层划分的用户输入,并且应该提前知道潜在的深度值。在实际环境中,由于摄像机和物体的运动,模糊是空间变化的,这使得核估计成为一个困难的问题。4384222MMMτM由于模糊参数和潜像难以从单个图像中估计,因此将基于单目的方法扩展到视频以去除动态场景中的模糊[32,37]。为此,Denget al.[4]他和其他人。[11]应用单个移动对象的特征跟踪以获得用于去模糊的2D基于位移的模糊核。松下等[24]和Choet al.[3]提出了利用视频中存在的显著清晰帧。尽管如此,松下等人的方法。[24]无法消除移动物体造成的此外,Cho的工作动议[25]。基于这些假设,我们定义了我们的结构化模糊核以及在下面的章节中去模糊的能量函数。3.1. 基于结构化像素模糊核的模糊图像生成模糊图像是通过在相机的孔径时间间隔上对从动态场景发射的光强度进行积分而形成的。这将视频序列中的图像帧定义为[3]不能处理快速移动的物体,从那些背景的运动。 沃尔夫和布莱克[38]Bm(x)=1m+τ2L(m,x)dm=1m+τLm(x+um)dm提出了一种分层模型来估计前景层和背景层的不同运动。但这些τm−ττm−τ(一)运动仅限于仿射模型,并且由于层的深度排序的要求,难以扩展到多层场景Kim和Lee [15]提出了一种基于局部线性运动而不进行分割的方法。该方法包括:其中,Bm是模糊标架,L∈[−T,T]×n是一个连续标架,时间间隔[−T,T]上的连续潜在视频序列,τ是占空比,um是m处的光流。记为Lm(x)=L(m,x).这导致了方程中的模糊模型的离散化版本。(1)作为评价光流估计以指导模糊核估计,并且能够处理某些对象运动模糊。在B(x)=AxL、(二)[16],提出了一种新的方法,通过最小化单个非凸能量函数来同时估计光流和处理一般模糊的情况该方法代表了视频去模糊的最新技术,并在实验部分用于比较。由于深度可以显着简化去模糊问题,因此已经提出了多视图方法来杠杆化其中Ax是位置X. 我们通过堆叠Ax获得模糊核矩阵A。这导致图像的模糊模型为Bm=AmLm。为了处理多种类型的模糊,Kimet al.[15]使用双向光流近似像素模糊内核km,x(u,v)=深度信息的年龄。 以以斯拉[28]李彦宏等。[22]第22话:δ(uv如果u∈[0,mu<$m+],v∈[0,mvm+]一个额外的低分辨率摄像机,||um+||22两个低分辨率摄像头形成立体对,<$δ(uv<$m−−vu<$m −),ifu∈(0,τmu<$],v∈(0,τmv<$]低分辨率深度图Tai等人[35]第三十五话m ||u˜m−||2m−2m−相机系统计算具有光流的逐像素核。Xu等[39]从由立体相机捕获的两个模糊图像推断深度,并提出了一种分层估计框架来去除由平面内平移引起的运动模糊。就在最近,Sellentet al. [31]提出了一种基于立体视频的视频去模糊技术,其中使用分段刚性3D场景流表示从模糊图像估计3D场景流。3. 制剂我们的目标是处理立体视频中由摄像机、对象的运动和场景中的大深度变化为此,我们制定我们的问题作为一个联合估计的场景流和图像去模糊的动态场景。特别是,我们依赖于这样的假设,0,否则(三)其中kt ,x是x处的模糊核,δ表示克罗内克增量,um+=(um+,vm+)和um−=(um−,vm−)是帧m处的双向光流。特别地,um+=um→m+1和um−=um→m−1。他们共同估计光流和去模糊图像。在我们的设置中,立体视频提供了每帧的深度信息基于我们对场景的分段平面特别地,我们用超像素和虚拟像素来表示场景有限数量的刚体运动的物体。我们将S和O分别表示为超像素和移动对象的集合。每个超像素i∈S与图像中的区域Ri相关联,其中3D中的平面变量ni,k∈R3场景可以近似为一组3D平面[41]不i,k对于X∈R3,X = 1),其中k∈{1,···,|O|}表示属于有限数量的物体1,超像素i与对象k相关联,相应的运动参数ok=(Rk,tk)∈SE(3),1背景可以被视为一个单一的其中Rk∈R3×3 是旋转矩阵,tk∈R3是议案平移向量 注意,(ok,ni,k)对场景进行(n个Mττ4385我i,k我ǁ我2(a) 原始模糊图像(b)Kim和Lee [16](c)Sellent等人[31](d)我们的图3.室外场景下的模糊核估计(a)来自KITTI自动驾驶基准数据集的模糊帧(b) 模糊内核[16]。(c)[31]的模糊核(d)我们的模糊内核。与这些单目和立体去模糊方法相比,我们的方法获得了更准确的模糊核。流量信息[25]。给定参数(ok,ni,k),我们有两对镜框。详情见第5节。能量项将在以下各节中讨论。在第4节中,我们以另一种方式解决优化问题,以处理混合的离散和连续变量,从而使我们能够联合估计场景流和去模糊图像。3.3. 数据项我们的数据项涉及混合离散和连续变量,并且有三种不同的类型。第一种编码的事实,即对应的像素在六个潜像应具有类似的外观(亮度恒定性)。这让我们把这个术语写为φ1(ni,k,ok,L)= θ1|L(x)− L<$(H<$x)|第1条,第(7)项其中上标f∈{stereo,flowf,b,crossf,b}表示到其他图像的行进方向,并且(·)f,b分别表示向前和向后方向(参见见图4)。我们采用鲁棒性的范数来增强其对噪声和遮挡的鲁棒性。我们的第二个势,类似于[25]中使用的一个术语,定义为:. θ ρ(||Hx−x||)如果x∈N,可以获得为超像素i定义的单应性,φ2(ni,k,ok)=2α12x0否则。Hi=K(Rk−tknT)K−1(4)其中ρα(·)=min(|·|,α)表示截断的α1惩罚其中K∈R3×3是内禀矩阵。光流被定义为:其中xi,j是超像素i中像素j的坐标。这功能更具体地说,它编码的信息,基于H ∞的特征点x∈fx的变形应该与其在目标视图中提取的对应相匹配。具体地,以与[ 25 ]类似的方式获得Δ x。第三个数据项利用观察到的模糊图像,定义为显示了超像素中像素的光流是受单应性约束。 这就导致了一种结构,φ3(ni,k,ok,L)=θ3Σ Σǁ∂∗Am (ni,k,ok)Lm--Bm2在等式中定义的模糊核的固定版本(三)、图3、将我们的模糊核估计与Kim和Lee的模糊核估计进行[16]和Sellentet al.[31 ]第30段。我们的内核更具结构性,这也导致了更准确的场景流估计。3.2.能量最小化我们制定了一个单一的框架作为一个离散连续优化问题,共同估计场景流和去模糊的图像的问题。特别地,我们的能量最小化模型被公式化为:M∂∗其中,R1是对应于水平和垂直导数滤波器的Toeplitz矩阵。该项使得估计的模糊图像中的强度变化接近于观察到的模糊图像的强度变化。3.4.场景流我们的能量模型利用了一个平滑的潜力,涉及离散和连续变量。这与[25]中使用的类似。特别是,我们的平滑项ΣE=i∈S φi(ni,o,L)+Σi、jφi,j(ni,nj,o)+Σφm(L)我是阿克斯(六)包括三种不同的类型。第一个是对共享一个共同点的两个超像素的兼容性边界的深度不连续性。 本联系我们数据项联系我们场景流平滑项潜像正则化最后,我们将势函数定义为Σ其由数据项、用于场景流的平滑度项和用于潜在清洁IM的空间正则化项φ43861i、j(ni,nj)=θ4x∈Bi,jρα2(ωi,j(ni,nj,x))(8)年龄我们的模型最初定义在三个连续的立体视频序列对。它还可以允许输入其中,ω(ni,x)是参考视差图中的超像素i中的像素x的视差,ωi,j(ni,nj,x)=ω(ni,x)-4387我我图4. 我们的“广义立体去模糊”方法的插图。我们同时计算四个场景流(在两个方向和两个视图),并去模糊六个图像。在输入仅包含两个图像的情况下,我们在去模糊部分中使用向前流的反射作为向后流。ω(nj,x)是边界上pi x el x∈Bi,j的视差距离。第二种可能是鼓励相邻的超像素在相同的方向上取向。表达为很难解决回想一下,我们的模型涉及两组变量,即场景流变量和潜在图像。幸运的是,给定一组变量,我们可以有效地解决另一组变量。因此,我们进行了优化-2i、j(ni,nj)=θ5ρα3.Σ|nTnj|1− ǁnǁ ǁnǁ.(九)通过以下步骤迭代地进行,• 修复潜像L,优化场景流程I j当量(11)(见第4.1节)。第三种可能性是编码的事实,即莫-区域边界与视差不连续性共同对准。该电势可以表示为• 确定场景流参数n和o,通过优化方程求解潜(12)(见第4.2节)。3i、j(ni,k,nj,k′)在以下各节中,我们将详细。Σexp−λωi,j(ni,nj,x)Σ2|nT nj|如果k1=k′,优化步骤=θ6|x∈B|x∈Bi、jni0其他。4.1.场景流估计哪里|Bi,j|表示沿着超像素i和j之间的边界共享的pixel的数量。We固定潜像,即L=L,等式(6)减少到min<$φ1,2,3(n,o,L<$)+<$φ1,2,3(n,n,o).(十一)3.5. 潜像的正则化项n和o我我i∈Si、ji,ji j空间正则化已经证明了它在图像去模糊中的重要性[19,20]。在我们的模型中,我们使用总变差项来抑制潜像中的噪声,同时消除边缘,并惩罚空间波动。因此,我们的潜力表现为φm=|Lm|.( 10)注意,总变化被应用于每个颜色通道。4. 溶液φφ4388这就变成了一个离散-连续的CRF优化问题。我们使用[25]中的顺序树重加权消息传递(TRW-S)方法来找到解决方案。4.2. 去模糊给出场景流参数,即,m和m,模糊核矩阵A,m基于等式(1)导出。(3)、Eq.(五)、方程中的目标函数。(6)相对于L变为凸的,并且表示为我们的能量函数的优化定义在minΣΣφ1(ni,o,L)+φ3(ni,k,ok,L)+φ m(L)。( 十二)当量(6),涉及离散和连续变量,Li ii∈Sm4389MM)¨)为了获得清晰的图像L,我们采用传统的凸优化方法[1],并推导出原始-对偶更新方案如下表1.Blurred KITTI数据集上的定量比较伊斯普河+γ Lrpr+1=m m最大转速(1,绝对转速(pr+γμ Lr))格河+γθ(Lr -Lr)简体中文m,m1m m,mqm,R r rmax(1,abs(qm,ΣLr+1=arg minθ Σ 中国人-B2+用于单目视频的L3 型坦克mi∂∗∗MM∗M2[16]和立体视频的方法[31]。¨¨[Lm−η((∇pr+1TM+θ1(qr+1m,+mr+1Tm,−m)]−Lr¨2M5.2.实验结果2η(十三)其中pm,qm,n是对偶变量,γ和η是每次迭代时可以修改的步长变量,r是迭代次数。5. 实验为了证明我们的方法的有效性,我们在两个数据集上对其进行了评估:合成椅子序列[31]和KITTI数据集[6]。我们将在下面的章节中讨论我们在这两个数据集上的结果。5.1. 实验装置初始化。我们的模型是制定三个连续的立体声对。特别地,我们将左视图中的中间帧视为参考图像。我们采用Stere-oSLIC [41]来生成超像素。给定立体图像,我们应用[8]中的方法来获得稀疏特征对应。应用传统的SGM [13]方法来获得视差图,该视差图用于初始化平面参数。运动假设是一般的,使用如在[8]中实现的RANSAC进行验证。为了获得模型参数{θ}和{α},我们对30个随机选择的训练图像的子集执行块坐标下降。评价。由于我们的方法估计场景流和去模糊的图像,我们评估这两个任务分开。对于场景流估计结果,我们通过相同的误差度量来评估光流和视差图,该误差度量是通过计算具有超过3个像素的误差的像素的数量和其地面真实值的5%。我们采用峰值信噪比分别对左视图和右视图的去模糊图像序列进行评价。因此,对于每个序列,我们报告三个值:三个立体图像对的视差误差、前向和后向方向的流误差以及六个图像的PSNR值。基线方法。至于我们的场景流结果,我们与分段刚性场景流方法(PRSF)[36]一致,在KITTI立体声和光流基准测试中排名第一。请注意,PRSF在[31]中用作预处理然后,我们将去模糊结果与关于KITTI的结果。据我们所知,没有现实的基准数据集提供模糊及其相应的地面实况清晰图像和场景流。在本文中,我们利用KITTI数据集[6]在真实场景上创建合成模糊KITTI数据集(将公开提供)。它包含199个场景,每个场景包括6个大小为375×1242的图像。由于KITTI基准测试不提供密集的地面实况流,我们使用最先进的场景流方法[25]来生成密集的地面实况流。给定密集场景流,通过使用分段线性2D内核生成模糊图像,更多细节请参见[16]和[31]。模糊是由物体运动和相机运动引起的,并伴有遮挡和阴影。我们通过对m−1到m+1个立体图像对的误差和PSNR分数进行平均来评估结果。表1显示了在模糊KITTI数据集上平均的PSNR值、视差误差和流量误差我们的方法始终优于所有基线。我们实现了最小误差在参考视图中,光流的得分为10.01%,视差的得分为6.82%。在图5中,我们显示了我们的方法和其他方法对来自我们数据集的样本序列的定性结果图6和图图7示出了模糊KITTI数据集的场景流然后,我们从199个场景中选择了50个具有较大运动的具有挑战性的序列作为测试图像,其中包含城市地区(30个序列)、农村地区(10个序列)和高速公路(10个序列)的日常交通场景表2显示了模糊KITTI数据集上50个测试序列的平均PSNR值、显示误差和流量误差。图8(左)显示了我们的去模糊阶段相对于迭代次数的性能。虽然我们对所有实验都使用5次迭代,但我们的实验表明,在大多数情况下,只有3次迭代就足以在我们的模型下实现最佳性能关于Sellentet al. [31]数据集我们在[ 31 ]中的数据集上进一步评估我们的方法,其中模糊图像是由3D内核模型生成的。这些序列包括四个真实场景和四个合成场景,每个场景包括六个模糊图像及其清晰图像,其中地面--qKITTI数据集视差流PSNRMM+1左权左权Vogal等人[36个]8.208.5013.6214.59//金与李[16]//38.8939.4528.2529.00Sellent等人[三十一]8.208.5013.6214.5927.7528.52我们2帧7.028.5511.4419.3430.2430.713帧6.828.3610.0111.4529.8030.304390Kim(CVPR 2015)Sellent(ECCV2016)我们的密度(a) 模糊图像(b)Kim和Lee [16](c)Sellent等人。[31](d)我们的图5.许多户外模糊帧和我们的去模糊结果与几个基线进行比较最好在屏幕上观看100 0.190 0.0980 0.0870 0.0760 0.0650 0.0540 0.0430 0.0320 0.02十点零一00 50 100 150 200的场景010 20 30 40 50 60峰值信噪比(dB)图6. Blurred KITTI数据集上的流量估计错误。我们的方法明显优于单目和立体视频去模糊方法。真实场景流仅可用于合成场景“椅子”。因此,我们在表3中报告了我们的方法和最先进的方法之间在场景图7. 模糊KITTI数据集上的PSNR分数分布。每个PSNR的概率分布函数使用具有正态核函数的核密度估计来估计。我们的方法的 厚尾意味着使用我 们的方法可以实 现更大的PSNR。超过4张图片我们还提出了定性的结果图。9对于该数据集中的真实图像。图8(右)模糊IamgeKim和Lee(CVPR 2015)Sellent(ECCV 2016)我们误差43913332.53231.53130.53029.50 1 2 3 45迭代次数242220181614120 1 2 3迭代次数表3.在场景“椅子”上的性能比较椅子视频差异(%)流量误差(%)峰值信噪比(dB)蒙泽[25]1.179.33/沃格尔[36]1.342.13/[16]第十六话/9.0819.95塞伦特[31]1.342.1323.07我们2帧1.281.2223.133帧1.151.1823.26表4.对KITTI数据集进行定量评估,图8. 迭代的去模糊性能。(左)我们的方法在50个具有挑战性的数据集上的第一次和最后一次迭代(右)我们的方法与其他“椅子”序列基线之间的比较表2.对50个挑战序列进行定量比较模糊图像是通过对三个连续帧求平均而产生的[16]第十六话Sellent等人[三十一]我们峰值信噪比(dB)23.2123.3123.89SSIM0.7810.7640.786(a)模糊图像(b)Kim和Lee [16]显示了我们的方法和其他基线之间的去模糊性能比较,关于场景“椅子”上的迭代。这些结果证实了我们的假设,即同时解决场景流和视频去模糊彼此有益,并且两个阶段的简单组合((c)Sellentet al.[三十一](d) 我们不能达到预期的效果。图10.对KITTI数据集进行定量评估,其中模糊图像是通过平均三个连续帧生成的(a) 模糊图像(b) 我们的结果我们使用C++包装器的MATLAB实现需要40分钟的总运行时间来处理一个场景(6个图像,3次迭代),在3.6 GHz的单个i7内核6. 结论在本文中,我们提出了一个联合优化框架,以解决具有挑战性的任务,立体视频去模糊,场景流估计和视频去模糊是在一个耦合的方式解决。根据我们的公式,来自场景流估计和模糊信息的运动线索可以相互加强,并产生更好的结果图9. 来自Sellent等人的真实图像数据集上的去模糊结果示例。[31 ]第30段。最好在屏幕上观看。另一个模糊模型上的结果:我们还在另一个模糊生成模型上测试了我们的方法,其中模糊图像是连续三帧的平均值[9,27]。结果示于表4和图3中。10,其中我们的方法再次实现最佳性能。在所有的实验中,我们同时计算两个方向的场景流和恢复六个模糊图像。左图像右图像Kim CVPR 2015Sellent ECCV2015我们的峰值信噪比(dB)峰值信噪比(dB)我们的数据集视差流PSNRMM+1左权左权Vogal等人[36个]6.676.707.267.90//金与李[16]//25.8326.3629.5830.30Sellent等人[三十一]6.676.707.267.9028.7329.44我们2帧4.985.826.1213.0632.2232.623帧4.905.766.166.1731.8032.284392比传统的场景流估计或立体去模糊方法. 我们已经证明了我们的框架的好处,广泛的合成和真正的立体声序列。确认这 项 工 作 得 到 了 中 国 学 术 委 员 会( 201506290130 ) , 澳 大 利 亚 研 究 理 事 会(ARC)资助(DP150104645,DE140100180)和自然科学基金的部分支持。国家自然科学基金(61420106007、61473230、61135001 ) 、 国 家 航 空 航 天 基 金 ( 2014ZC5303)。我们感谢所有评论者的宝贵意见。4393引用[1] Antonin Chambolle 和 Thomas Pock 。 凸 问 题 的 一 阶Journal of Mathematical Imaging and Vision,40(1):120-145,2011. 6[2] 赵 成 贤 和 李 承 京 。 快 速 运 动 去 模 糊 。 在 ACMTransactions on Graphics,第28卷,第145:1ACM,2009年。2[3] 赵成贤,王觉,李承京。使用基于补丁的合成的手持相机的视频去模糊。ACM Transactions on Graphics,31(4):64,2012. 3[4] Xiaoyu Deng,Yan Shen,Mingli Song,Dacheng Tao,Jiajun Bu,and Chun Chen.基于视频的非均匀目标运动模糊估计与去模糊。神经计算,86:170- 178,2012。第1、3条[5] Uwe Franke和Armin Joos城市交通场景理解的实时立体视觉。在IEEE智能车辆研讨会上,第273-278页,2000年。1[6] Andreas Geiger , Philip Lenz , Christoph Stiller , andRaquel Urtasun. 视觉与机器人技术的结合:KITTI数据集。 机器人研究国际杂志,第0278364913491297页,2013年。6[7] Andreas Geiger,Philip Lenz,and Raquel Urtasun.我们准备好自动驾驶了吗?KITTI视觉基准套件。正在进行IEEE会议对比可见光帕特识别第3354-3361页,2012。一、二[8] Andreas Geiger,Julius Ziegler,and Christoph Stiller.立体声扫描:实时高密度三维重建。在2011年的IEEE智能车辆研讨会上,第963-968页。6[9] Dong Gong,Jie Yang,Lingqiao Liu,Yanning Zhang,Ian Reid,Chunhua Shen,Anton van den Hengel,andQinfeng Shi.从运动模糊到运动流:深度学习解决方案,用 于 消 除 异 构 运 动 模 糊 。 arXiv 预 印 本 arXiv :1612.02583,2016年。8[10] 安基特·古普塔,尼尔·乔希,C·劳伦斯·齐特尼克,迈克尔·科恩和布莱恩·库利斯。利用运动密度函数的单幅图像去模糊。 在proc EUR. Conf. Comp. 目视第171-184页。施普林格,2010年。一、二[11] 何晓春,罗泰,徐旭,周国平,黄启耀,钟瑞辉。模糊视频 的运 动估 计方 法及 空间变 化模 糊核 去模 糊的IEEEInternational Conference on Computer Sciences andConvergence Information Technology(ICCIT),第355-359页3[12] MichaelHirsch , ChristianJSchmidt , StefanHarmeling,and BernhardSch oülk opf. 相机抖动不均匀的快速恢复正在进行IEEE国际配置文件目视第463-470页2[13] 海科·赫希穆勒基于半全局匹配和互信息的立体图像处理IEEE传输模式分析马赫内特尔,30(2):328-341,2008. 6[14] 胡哲,李旭,杨明轩。联合深度估计和相机抖动消除单一模糊图像。4394正在进行IEEE会议对比可见光帕特识别第2893-2900页,2014年。2[15] Tae Hyun Kim和Kyoung Mu Lee。免分割动态场景去模糊。 在proc IEEE会议Comp. 目视帕特识别第2766-2773页,2014年。3[16] Tae Hyun Kim和Kyoung Mu Lee。动态场景的广义视频去模糊在proc IEEE会议Comp. 目视帕特识别第5426-5434页,2015年。一二三四六七八[17] 佳雅佳。统一运动去模糊的数学模型和实用解算器运动去模糊:算法和系统,第1页,2014年。一、二[18] 星秉康。自动去除单个图像的色差正在进行IEEE会议对比可见光帕特识别,第1-8页,2007。1[19] Dilip Krishnan和Rob Fergus使用超拉普拉斯先验的快速图像去卷积。在Proc. Adv. Neural Inf.过程。系统第1033-1041页,2009年。5[20] Dilip Krishnan、Terence Tay和Rob Fergus。使用归一 化 稀 疏 性 测度 的 盲 反 卷 积 在 proc IEEE Conf.Comp.目视帕特识别第233-240页,2011年。5[21] 李承永和赵成贤。图像去模糊的最新进展。在SIGGRAPH亚洲课程,第6页。ACM,2013年。1[22] 李峰,俞静怡,柴金祥。用于运动去模糊和深度图超分辨率的混合相机。在procIEEE会议Comp. 目视帕特识别,第13[23] 李欣。用于基于投影的图像去模糊的细粒度和空间自适应正则化。IEEE Trans. 图像处理,20(4):971-983,2011. 1[24] Yasuyuki Matsushita , Eyal Ofek , Weina Ge ,Xiaoou Tang,and Heung-Yeung Shum.全帧视频稳定与运动修复。IEEE传输模式分析马赫内特尔,28(7):1150-1163,2006. 3[25] Moritz Menze和Andreas Geiger。自动驾驶车辆的对象场景流。正在进行IEEE会议对比可见光帕特识别,第3061-3070页,2015年。二三四五六八[26] Tomer Michaeli和Michal Irani使用内部补片递归盲去模糊。欧洲药典配置文件可见第783-798页。Springer,2014. 2[27] Seungjun Nah,Tae Hyun Kim,and Kyoung Mu Lee.深度多尺度卷积神经网络动态场景去模糊。arXiv预印本arXiv:1612.02177,2016。8[28] SK纳亚尔和M本以斯拉。基于运动的运动去模糊。IEEE传输模式分析马赫内特尔,26(6):689-698,2004. 3[29] Daniel Scharstein和Richard Szeliski。密集两帧立体对应算法的分类和评价。Int. J. Comp.目视,47(1-3):7-42,2002. 2[30] ChristianJSchuler , MichaelHirsch , StefanHarmeling,and BernhardScho¨ l k opf. 光学像差的盲 校 正 。 欧 洲 药 典 配 置 文 件 可 见 第 187-200 页 。Springer,2012. 14395[31] 安妮塔·塞伦特卡斯滕·罗瑟斯特凡·罗斯立体视频去模糊。欧洲药典配置文件可见第558施普林格,2016年。一二三四六七八[32] Hee Seok Lee和Kuoung Mu Lee。使用单个移动摄像机从严重模糊图像进行密集3d正在进行IEEE会议对比可见光帕特识别,第273- 280页,2013年。3[33] Jianping Shi,Li Xu,and Jiaya Jia.只是明显的散焦模糊检测和估计。正在进行IEEE会议Comp.目视帕特识别第657-665页,2015年。1[34] Jian Sun,Wenfei Cao,Zongben Xu,and Jean Ponce. 学习用于非均匀运动模糊去除的卷积神经网络。 在procIEEE会议Comp. 目视帕特识别,第769-777页,2015。一、二[35] Yu-Wing Tai,Hao Du,Michael S Brown,and StephenLin.使用混合相机的图像/视频去模糊。 在procIEEE会议Comp. 目视帕特识别,第13[36] 克里斯托弗·沃格尔康拉德·辛德勒和斯特凡·罗斯。基于分段刚性场景模型的三维场景流估计Int. J. Comp.目视,115(1):1-28,2015. 六、八[37] Oliver Whyte,Josef Sivic,Andrew Zisserman,and JeanPonce.抖动图像的非均匀去模糊。Int. J.对比可见光,98(2):168-186,2012. 3[38] Jonas Wulff和Michael Julian Black。模糊视频的分层建模。欧洲药典配置文件可见第236-252页。Springer,2014. 3[39] 李旭和贾佳雅。深度感知运动去模糊。在proc IEEE国际Conf. 计算摄影,第1- 8页,2012年。3[40] Li Xu,Shicheng Zheng,and Jiaya Jia.自然图像去模糊的非自然l0稀疏表示。正在进行IEEE会议对比可见光帕特识别第1107-1114页,2013年。2[41] 山口幸一郎,大卫·麦卡利斯特,拉奎尔·乌尔塔-孙。鲁棒的单目极线流估计。正在进行IEEE会议对比可见光帕特识别第1862-1869页,2013年。三、六[42] 郑世成,李旭,贾佳雅。向前运动去模糊。正在进行IEEE国际配置文件目视第1465- 1472页,2013年12月。1
下载后可阅读完整内容,剩余1页未读,立即下载
![.pdf](https://img-home.csdnimg.cn/images/20210720083646.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 基于嵌入式ARMLinux的播放器的设计与实现 word格式.doc
- 经典:大学答辩通过_基于ARM微处理器的嵌入式指纹识别系统设计.pdf
- 嵌入式系统课程设计.doc
- 基于飞思卡尔控制器的智能寻迹车设计ARM基础课程课程设计.doc
- 下载基于ARM7的压电陶瓷换能器导纳圆测量仪的研制PDF格式可编辑.pdf
- 课程设计基于ARM的嵌入式家居监控系统的研究与设计.doc
- 论文基于嵌入式ARM的图像采集处理系统设计.doc
- 嵌入式基于ARM9的中断驱动程序设计—课程设计.doc
- 在Linux系统下基于ARM嵌入式的俄罗斯方块.doc
- STK-MirrorStore Product Release Notes(96130)-44
- STK-MirrorStore Storage Connectivity Guide for StorageTek Disk A
- 龙虾养殖远程监控系统的设计与实现数据采集上位-机软件模块-本科毕业设计.doc
- 龙虾养殖远程监控系统的设计与实现数据采集上位-机软件模块-.doc
- 龙虾养殖远程监控系统的设计与实现数据采集上位-机软件模块-本科生毕业论文.doc
- 麻阳风貌展示网站的设计与实现毕业论文.pdf
- 高速走丝气中电火花线切割精加工编程设计.doc
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)