没有合适的资源?快使用搜索试试~ 我知道了~
8277输入输出应用快速软彩色分割秋本直文1朱华春2金洋华2青木义光1庆应义塾大学2优选网络nakimoto@aoki-medialab.jp{zhu,jinyh}@aoki@elec.keio.ac.jp preferred.jp输入图像调色板分解层重新着色合成图1:我们提出了一个基于神经网络的框架,通过使用单个RGB图像和指定的调色板,将图像分解为多个RGBA层,每个层都包含均匀的颜色。分解后的图层可以即时创建,并且对于图像和视频编辑(如拼接或合成)非常有用。摘要我们解决软颜色分割的问题,定义为分解成几个RGBA层,每个层只包含均匀的颜色区域的给定图像分解产生的层为受益于基于层的编辑的应用程序铺平了道路,例如图像和视频的重新着色和合成。由于其迭代性质,用于该问题的当前最先进的方法受到缓慢处理时间的阻碍,并且一致性不能扩展到某些真实世界场景。为了解决这个问题,我们提出了一种基于神经网络的方法,该方法将给定的图像分解为多个层,在一个单一的向前传递。此外,我们的方法分别分解的颜色层和铝,这项工作的一部分是在第一作者作为实习生在Preferred Networks工作时完成的。PHA通道层。通过利用一种新的训练对象,我们的方法实现了层之间的颜色分配。因此,我们的方法实现了有前途的质量,而不存在迭代方法的推理速度的问题。我们彻底的实验分析表明,我们的方法产生定性和定量的结果与以前的方法相比,同时实现了300,000x的速度提高。最后,我们利用我们提出的方法在几个应用程序,并证明其速度优势,特别是在视频编辑。1. 介绍图像分割是将图像分解为有意义的区域的任务解决这个问题的典型方法然而,这种硬分割是远远不够理想时,distinc-8278+颜色层估计(§ 4.3)选择(§ 4.1)Alpha层估计(§ 4.2)网络培训(§ 4.4)L$Lr输入图像调色板α预测器 阿尔法层处理的Alpha图层残差预测器LaRGB图层分解层图2:我们的框架由三个阶段组成。首先,基于输入图像手动或自动地选择调色板颜色。第二,alpha预测器(U-Net)使用输入图像和调色板预测alpha层。然后,α层被归一化以满足α相加条件(等式10)。(2))或者经历诸如平滑滤波或掩模操作的阿尔法层处理。最后,利用输入图像、调色板和处理后的alpha层,残差预测器(U-Net)估计每层的调色板颜色和地面实况图像之间的差异,以便从分解的层恢复输入图像。这两个网络是联合训练的。有意义的区域的划分是模糊的,例如具有运动模糊、透明度或照明的对象。一种灵活的替代方法是软分割,它允许将单个像素分配给多个类别。本文讨论了软分割的子任务:软彩色分割该任务的目标是将RGB图像分解成几个考虑颜色的RGBA层,每个RGBA层由均匀的颜色组成。分解的软颜色层允许用户在编辑任务(例如,拼接和合成)中瞄准特定颜色区域。在解决该问题的方法中,现有方法采用基于优化的方法[2,3,12]或几何方法[23,24]然而,现有方法分解高分辨率图像或一系列图像(例如,视频中的帧)。在这项工作中,我们提出了一种基于神经网络的方法,显着加快软颜色分割,同时保持软颜色层的质量产生。我们的系统由三个阶段组成,如图2所示。在1)调色板选择中,我们自动或手动地选择调色板颜色,其中的每一个指示目标颜色层的平均颜色。在2)阿尔法层估计中,阿尔法预测器估计与所选择的调色板颜色相对应的阿尔法层。处理完alpha图层后,3)在颜色层估计中,残差预测器估计指示颜色从调色板颜色的位移的颜色残差。对于最终RGBA图层中的每个像素,颜色值(RGB部分)是调色板颜色的总和以及其在该像素处的残差,并且从对应的处理过的alpha层获取alpha值(A与现有的方法相比,该方法将分解时间减少了300,000倍。我们通过提前优化训练数据集上的目标函数来实现这一点,而不是在运行中最小化输入图像上的能量函数,这在基于优化的方法中很网络的训练目标由重构损失、正则化损失和距离损失组成。我们共同调色板输入图像K均值结果已处理的alpha层×重建图像分解层图3:图2的重建过程。注意,如果我们对调色板颜色和相应的alpha层进行加权求和,我们也可以获得与输入图像类似的图像(左中),但是需要残差来恢复具有各种颜色和增强细节的输入图像(左下)。以自我监督的方式训练阿尔法预测器和残差预测器,因此不需要额外的手动标记或注释。在训练之后,网络在前馈过程中分解图像。速度增益为实际应用铺平了道路,包括实时编辑和逐帧视频分解。总结一下我们的主要贡献,• 我们提出了第一个基于神经网络的方法和一个新的软颜色分割的训练目标。Alpha层处理8279Σ我α• 我们进行定性和定量实验,以证明我们的方法显着超过国家的最先进的方法,同时保持比较,视觉质量差。• 我们将我们的方法应用于几个实际应用-特别是视频编辑,以前所未有的效果,颜色约束、阿尔法约束、盒约束和稀疏颜色分解能量函数。具体地说,颜色约束要求分解后的图层恢复原始图像.对于第i层中的像素pαpup=cp<$p,(1)我我效率我2. 相关工作在计算机视觉和计算机图形学中,层分解是将单个图像分解为多个RGB或RGBA图像的任务。例如,反射去除[7,27,33],雾去除[10,19,32,37]和雨去除[9,31,14]估计前景和背景层以及每个像素的混合比率。 分割也是一种 层分解任务。部分分割包括人工解析[15,30]或矢量图形层生成[8,21]。语义分割已经被积极地处理[5,16,17,20,35]。上述分割任务将每个像素分类为单个类。与这些硬分割任务相比,软分割其中CP表示像素P处的原始颜色,而UP表示P处的层颜色。为方便起见,我们在本文其余部分省略了上标palpha约束强制分解层的总和为不透明图像:Σα i= 1。(二)我box约束要求alpha和颜色值必须在边界内:α i,ui∈ [0,1]<$i.(三)稀疏颜色分解能量函数是颜色之间的距离和每层中的颜色分布的加权和,加上稀疏项:研究[2,18,4,22],以表达重新之间的过渡FS= Σ αiDi(ui)+σ. Σα星Σi−1、(四)使用alpha值的类的区域。 例如,席子[6,1,13,25,26,29,34]获得前地和背景之间的过渡。软分割比硬分割更适合处理运动模糊、透明度、光照等问题。软颜色分割是将单个图像分解为多个RGB或RGBA颜色层的特定软分割任务,每个颜色层包含均匀的颜色。Aksoy等人[3]通过在颜色分解公式中添加稀疏项,改进了Aksoy等人[2]与Aksoy等人 [3]类似的研究包括Koyama等人[12]和Tan等人 [23]。Koyama等人 [12]推广了Aksoy等人 [3],以实现高级颜色混合。Tan等人 [23]是一种找到RGBXY凸包的几何方法,扩展了Tan等人 [24]。Koyama等人 [12]和Tan等人 [24]考虑了层堆叠的顺序,Aksoy等人 [3]和Tan等人 [23]处理线性加性模型,该模型不考虑顺序。Aksoy等人。 [3]已经表明,基于颜色分解的分割可以通过解决约束最小化问题来实现,如第3节所述。3. 动机一些作品[3,12,24]采用基于优化的方法将图像分解为多个颜色-考虑RGBA层。特别地,来自Aksoy等人 [3]的最先进的方法提出了颜色分解公式,其中目标函数由以下组成:2我我我其中,层成本Di(ui)被定义为层颜色ui到层分布N(ui,ni)的马氏距离的平方,σ是稀疏权重。上述做法还有改进的空间[3]在推理速度方面。基于输入图像,能量函数的迭代优化往往很慢,并且运行时间随像素数量线性增加,如第5.2节所示。基于优化的方法的成功[3,12,24]及其在速度上的缺点激励我们在数据集上训练神经网络。在没有任何实时迭代的情况下,网络可以在显著较低的推理时间内将原始图像分解为柔和的颜色层。部分受到能量函数最小化的启发,我们提出了一个目标函数,该目标函数是为训练我们的神经网络系统而设计的,详见下一节。4. 方法我们提出的方法包括三个阶段:调色板颜色选择、阿尔法层估计和颜色层估计。所提出的系统的输入是一个单一的RGB图像,输出是RGBA软彩色层。4.1. 颜色选择Aksoy等人和Koyama等人 [3,12]的方法的输入是一组颜色模型,其表示期望颜色的均值和(协)方差。8280Σ输出层。虽然协方差提供了额外的可控性,但用户必须理解颜色协方差的定义,如何调整它,以及它如何与系统交互以产生最终的颜色层。因此,用户可能不会发现操纵协方差是直观的。为了获得易于使用的用户体验,我们认为用户不应该接触到不必要的参数。因此,我们在设计中选择调色板颜色(仅均值)而不是颜色模型(均值+协方差)作为输入。调色板颜色的简单解释是应该包含在颜色层中的颜色的平均值。在训练过程中,我们使用K-means算法将输入图像中的像素划分为三维RGB空间中的K我们选取中心RGB值4.4. 网络训练上述两个网络是端到端训练的,目标由几个损失组成。主要的训练目标,灵感来自颜色约束(方程。(1))是最小化输入和输出之间的自监督重建损失:ΣL r=α iui− c1。(六)我为了正则化alpha预测器的训练,我们提出了一种新的正则化损失,表示为原始图像和重建图像之间的重建损失,没有颜色残留:Σ作为调色板的颜色。调色板颜色的数量K在整个网络的训练中是固定的La=0我αipi−c1,(7)在推理过程中,调色板颜色可以手动指定,除了使用K均值自动选择。4.2. Alpha层估计我们采用U-Net架构[20]作为alpha预测器。alpha预测器的输入是原始RGB图像和K个单色图像。每一幅单色图像都是简单地用RGB图像填充了单一的调色板颜色.输出为Kalpha层,即alpha值的单通道图像。在图2中的后续alpha层处理中,网络的输出通过以下方式归一化:αi其中pi表示第i层的调色板颜色。换句话说,i α ipi是仅使用归一化alpha层和调色板颜色重构的图像,如图(3)的中间左侧所示。为了在每个颜色层中只收集均匀的颜色,我们提出了一种新的距离损失,在回忆方程。(4),公式为ΣL d=α i<$pi− ui<$2。(八)我我们在RGB空间中使用欧几里得距离,因为我们的输入只是K调色板颜色。αi=ΣK、(五)αk现在我们可以用公式表示总损失:其中αi是某个像素位置处的alpha值(不透明度)。该归一化步骤确保输出满足α相加条件(等式10)。(2)译注。对于推理,我们可以在归一化之外添加各种alpha层处理,我们将在4.4节中详细介绍。4.3. 颜色层估计调色板颜色和alpha层不足以重建原始图像,如图(3)所示。虽然用户只需要指定调色板颜色,但每个颜色层应该包含比单个调色板颜色更多的颜色。为了引入颜色变化,我们添加了一个残差预测器来估计调色板颜色的颜色残差。残差预测器的输入是原始图像、K个单色图像和K个归一化alpha层。残差预测器网络具有与alpha预测器相同的架构,除了输入和输出通道的数量我们将输出残差添加到调色板颜色以计算K个RGB层。最终的RGBA层可以通过沿着通道轴连接RGB层和归一化的alpha层来获得。Ltotal=Lr+λa La+λd Ld,(9)其中λa和λd分别是正则化损失和距离损失的系数。与Aksoy等人的方法相比。[3]最小化给定输入图像的拟议能量函数,我们的方法训练神经网络以最小化训练数据集的总损失。我们注意到:1)网络的输出自动满足盒子约束(等式2)。(3))这是因为附加到网络的S形函数和剪切操作。以及2)我们不像稀疏颜色解混能量函数中的稀疏项那样强制稀疏性(等式2)。(四))。 在初步的实验中,我们引入了这样一个稀疏损失的系数,以控制其在总损失的权重。当权值较大时,区域边界没有软过渡,分割结果接近硬分割。然而,当我们降低权重时,稀疏性损失不再促进稀疏性。我们认为,新的正则化损失La和alpha层处理中的归一化步骤(等式10)是最佳的。(5))共同鼓励了α层的稀疏,因此引入额外的稀疏损失是多余的。8281Aksoy等人我们Aksoy等人我们Koyama等人底层顶层我们图4:与最新基线的定性比较[3,12]。我们的方法在产生有意义的软颜色层方面与最先进的方法[3]进行了比较我们注意到,Koyama等人。 [12]处理的是顺序相关的混合,而我们是顺序无关的。5. 实验对于训练,我们使用Places 365-Standard validationimages [36] 。 训 练 数 据 集 中 的 所 有 图 像 都 具 有256×256的分辨率。 我们使用亚当优化器,lr= 0。2,β1= 0。0,且β2= 0。九十九。对于所有实验,我们设λ a= 1,λ d= 0。五、对于推理,由于我们的网络是全卷积的,我们可以应用该模型来分解各种分辨率的图像。这两个网络都是U- Net,具有五个卷积,三个转置卷积,并且在每个尺度上都有跳跃连接。我们将在补充材料中详细讨论网络结构。5.1. 定性评价与最先进方法的比较。图4显示了我们的结果和Aksoy等人的结果之间的定性比较。[3]或Koyama et al.[12]第10段。请注意,输入是不同的:他们的输入是颜色的分布,而我们的只是颜色。我们要指出的是,软色彩分割没有最佳解决方案,因为图像可以分解为有意义的高质量色彩层以各种方式。为了尽可能直观地进行比较,我们手动选择调色板颜色用于我们的方法,以便结果颜色层看起来与Aksoy等人的结果相似。和Koyama等人。 [3,12]。5.2. 定量评价速度图5显示了我们的算法的运行时间,Aksoy等人的算法。和Tan等人。 [3,23],取决于输入图像的大小。Aksoy等人。 [3]和我们的方法都使用调色板大小为7,Tan等人。 [23]使用平均调色板大小为6.95,中值调色板大小为7。该方法分解一幅1080p分辨率(约2MP)的图像需要2.9ms ,分解一幅5MP图像需要3.0ms,分解一幅4K分辨率(约8MP)的图像需要3.4ms。Aksoy等人。 [3]报告说,他们的算法需要1,000 s来分解5 MP图像。由于逐像素优化,它们的运行时间随着像素数量的增加而线性增加。Tan等人。[23]利用RGBXY凸包计算和层更新改进了Aksoy等人的表达式速度。我们在他们的论文[23]的图9中收集了他们的运行时间(大约50 s到100 s),因为没有报告确切的值。见补充8282α2我Aksoy等人[3] Tan et al.[23]我们的10000100010010100.10.010.001图像大小[MP]表1:定量比较。我们的方法是消融研究中唯一实现与Aksoy等人 [3]相似重建误差的设置,同时具有低稀疏度评分和高图像质量。定量评价详见5.2,消融详见5.3图5:与最先进方法的速度比较。请注意,时间轴是对数刻度。详细的实验设置材料。比较表明,我们的神经网络为基础的方法有一个显着的速度提高了国家的最先进的方法。此外,只有我们的方法可以在实际的时间内分解视频具体来说,当视频由450帧(1080p,30 fps,15 s)组成时,我们的方法需要1.35秒,而Aksoy等人的方法。重建错误。在表1中,我们使用像素级均方误差来评估输入图像和重建图像之间的差异。尽管我们最小化了重建损失(等式2)。(6)在训练数据集上与Aksoy等人 [3]所做的输入图像不同,我们的重构错误足够低,这表明我们的网络在测试图像上泛化得很好。我们注意到,重建误差还取决于所选择的调色板颜色。特别是,如果某些调色板颜色根本不会出现在原始图像中,则错误会增加。5.3. 消融研究在本节中,我们将验证神经网络的损失和架构。图6显示了用于定性比较的样品。表1中所示的重建误差和稀疏性分数是1MP或更多的100个图像的平均分数。稀疏性得分计算如下: Σ αL s= i− 1。(十)我我Ls的值越小,意味着分解层越稀疏。表2中的颜色方差分数表示对应于图6中的结果的分数。该分数是RGB通道在所有分解层上平均的个体方差的总和。为了公平比较,我们使用相同的调色板颜色来分解每个设置的输入。study.我们的对我们的,没有Lr。表1和图6表明,我们的方法没有Lr不能正确地重建结构的输入图像。La训练唯一的alpha预测器,因此残差预测器不能正常工作。我们的对我们的,没有La。 虽然SSIM分数在没有Lα的情况下稍微更好,但是稀疏性分数显著更高,这表明α层之间存在过度重叠在图6中的第三行重叠旨在仅稀疏地发生,例如。在区域的边界处,由于过度的重叠不适合应用于图像编辑。此外,在没有La的情况下,颜色变化分数更高,这指示层中的一些可能被污染,即包含与相应调色板颜色大不相同的颜色。我们可以在蓝色层的左上角观察到这种我们认为这是因为La改善了性能α预测因子。我们的和我们的没有Ld的。在没有Ld抑制每层中的颜色的方差的情况下,重建误差减小。但是,较大的颜色变化会导致相同的颜色分布在多个图层上,这对于基于颜色的编辑是不可取的,如表2和图6所示我们的对我们的没有跳跃连接。 在阿尔法预测器和残差预测器中没有跳过连接的情况下,阿尔法层是不准确的,导致更高的重构误差。我们的和我们的没有零中心残留的。用零中心输出训练神经网络更容易,我们可以确保调色板颜色是每层的平均值。在没有零中心的情况下,PSNR增加,但颜色方差增加得更多。只有我们的网络。如果我们使用普通的单网络,重建误差会增加。我们-108642时间[s]方法重新开始↓PSNR↑SSIM↑稀疏度↓Aksoy等人[3]第一章0.00050---我们0.0008831.070.97401.456不含Lr0.0030825.700.91581.279不含La0.0009031.170.97501.959不含Ld0.0007631.720.97431.640不带跳过0.0035027.370.93661.149无零中心0.0007331.820.97101.4508283→分解层↓重新开始图片↓←输入我们放大↓我们的↓Oursw/oLr我们的无L编号我们的,不包括L$我们的无跳跃我们的没有零图6:消融研究的目视比较。删除我们的方法的任何组件会导致更高的重建误差,颜色污染或颜色层的不必要的重叠。详见第5.3节。方法Aksoy等人[3]我们的不含La不含Ld无零中心颜色变量↓0.0050.0030.0070.0060.162表2:颜色变化的定量比较。我们的方法的值对应于图6中的图像。我们从Aksoy等人的论文[3]中获得了该方法的颜色方差。认为作为输入准确的α层增强了残差预测器的性能具体来说,在我们的方法中,我们应用平滑滤波器从alpha层中去除棋盘状我们怀疑是否有一种方法可以在神经网络中结合平滑滤波器处理,同时预测alpha和RGB通道。5.4. 应用边界模糊图像的分解。软颜色分割不仅对于将图像分解成软颜色层有用,而且对于结果层优选具有模糊边界的任何情况都有用。图7显示了我们的分解结果和软颜色分割的好处。在具有运动模糊的前景对象的图像的情况下,尽管前景和背景两者在单个像素处都是可见的,但是前景对象和背景对象在单个像素处都是输入硬软(我们的)输入硬/语义软/颜色(我们的)(a) 运动模糊(b)照明图7:在对象边界模糊的图像上,硬分割和基于颜色的软分割的比较.在(a)中,硬分割产生背景层,该背景层被前景中的移动对象污染在(b)中,硬语义分割将图像划分为语义区域,而软颜色分割使我们能够同时改变岩石上的反射光以及天空的照明条件。像素,硬分割必须将该像素分配到任何一类中。在这种情况下,软分割可以将像素识别为前/背景的混合物,因此具有8284优于传统的硬分割。自然图像编辑。图1和图8显示的例子,排序和合成。这些编辑结果是通过在Adobe After Effects中使用alpha add视频分解图9显示了我们的方法执行视频软颜色分割。我们分解的视频逐帧,没有任何约束的时间一致性。然而,分解的层不闪烁。这可以部分归因于应用平滑滤波器和固定调色板,这两者都鼓励一致的alpha层,以及正则化损失Ld,这鼓励一致的颜色层。与其他方法相比,只有我们的方法可以在实际时间内分解视频。查看视频资料了解详细结果。阿尔法层处理。 在阿尔法层处理阶段,用户可以编辑预测的阿尔法层,并随后由于alpha层的估计独立于颜色层,因此可以将这些编辑的alpha层用于颜色估计。如图10所示,我们可以使用引导滤波器[11,28]来平滑图像,或者mannipulate掩模来改变alpha区域。 我们可以利用最先进的方法(例如,语义分割和深度估计)。因此,我们的方法可以补充各种图像编辑技术。(a) 重新着色(b)合成图8:使用我们的方法分解的层进行图像编辑的示例.第1帧第30帧框架60框架90层#1层#2图9:视频分解的示例。我们的方法在几秒钟内分解视频中的所有帧。带导向过滤器5.5. 限制内存限制。 因为我们使用GPU进行推理,(a) 平滑(b) 掩码操作无法处理超过GPU内存限制的高分辨率图像。此外,需要足够的GPU存储器来保持具有跳过连接的编码器-解码器网络的中间特征。具体地,当输入是1080p(4K)分辨率并且计算基于32位浮点时,消耗大约12(21)GB。对策包括使用16位浮点和丢弃不必要的中间特征.固定调色板大小。在我们的方法中,每个训练模型的分解层的数量是固定的。为了处理不同数量的层,一种解决方案是训练一个模型,该模型将图像分解为足够数量的层,ers,并使用具有重复颜色的调色板,如图11所示。我们在分解后将重复的颜色层合并.6. 结论在本文中,我们解决了软颜色分割的问题,使用第一个神经网络为基础的方法。我们表明,所提出的方法相对于现有技术的方法能够更快地我们还证明了我们快速简单的方法能够实现新的重要应用,例如视频的软颜色分割。图10:之前的alpha层处理示例预测颜色(a)有/无平滑滤波的比较。(b)一个使用遮罩来操纵分解层的例子。图11:调色板包含重复颜色时的示例。它表明,尽管在训练过程中层数是固定的,但我们的模型可以容忍颜色的重复,因此能够将图像分解为更少的层。确认我们感谢田英涛和Prabhat Nagarajan在撰写本文时提供的有益建议。我们感谢Edgar Simo-Serra和所有评论者的有益讨论和评论。…8285引用[1] 我是阿克斯,我是图恩·奥赞,马克·波列夫也是。为自然图像抠图设计有效的像素间信息流在IEEE计算机视觉和模式识别会议(CVPR),2017年。[2] YagızAks oy,Tun cOzanAın,MarcPollef e ys,andAlj os aSmoli c'.通过颜色分解实现高质量的绿屏显示ACM事务处理图表,35(5):152:1-152:12,2016.[3] YagızAksoy,TuncOzanAın,AljosaSmolic',andMarcPollefeys.用于图像处理的基于解混的软颜色分割。ACM事务处理图表,36(2):19:1-19:19,2017.[4] YagızAksoy,Tae-HyunOh ,Syl vainParis ,MarcPollefeyys , and Wojciech Matusik. 语 义 软 分 割 。 ACM Trans.Graph. (Proc. SIGGRAPH),37(4):72:1 -72:13,2018。[5] Liang-ChiehChen , GeorgePapandreou , IasonasKokkinos,Kevin Murphy,and Alan L Yuille.Deeplab:使用深度卷积网络、atrous卷积和全连接crfs进行语义IEEE Transactions on Pattern Analysis and MachineIntelligence,40(4):834[6] Qifeng Chen,Dingzeyu Li,and Chi-Keung Tang.我知道。IEEE Transactions on pattern analysis and machineintelligence,35(9):2175[7] Qingnan Fan , Jiaolong Yang , Gang Hua , BaoquanChen,and David Wipf.用于单个图像反射去除和图像平滑的 通用 深度架 构。 在IEEE国际 计算 机视觉 会议(ICCV),2017年。[8] Jean-Dominique Favreau , Florent Lafarge , and AdrienBousseau. Photo2clipart:使用分层线性梯度的图像抽象和矢量化。ACM Transactions on Graphics(SIGGRAPHAsia Conference Proceedings),36(6),2017年11月。[9] Xueyang Fu,Jiabin Huang,Delu Zeng,Yue Huang,Xinghao Ding,and John Paisley.通过深度细节网络从单个图像中去除雨水。在IEEE计算机视觉和模式识别会议(CVPR)中,第1715- 1723页[10] Yosef Gandelsman、Assaf Shocher和Michal Irani。“双底”:通过耦合深度图像先验的无监督图像分解。在IEEE计算机视觉和模式识别会议(CVPR)上,2019年6月[11] 何开明,孙建,唐晓鸥。引导图像滤波。欧洲计算机视觉会议,第1-14页。施普林格,2010年。[12] 小山由纪和后藤正孝使用高级颜色混合将图像Comput.Graph. Fo- rum,7(37):pp.397 -407,2018.[13] Anat Levin Alex Rav-Acha 和 Dani Lischinski 。 光 谱 抠图。IEEE Transactions on Pattern Analysis and MachineIntelligence,30(10):1699[14] Ruoteng Li,Loong-Fah Cheong,and Robby T. Tan.暴雨图像恢复:整合物理模型和条件对抗学习。在IEEE计算机视觉和模式识别会议(CVPR)上,2019年6月[15] Xiaodan Liang,Si Liu,Xiaohui Shen,Jianchao Yang,Luoqi Liu,Jian Dong,Liang Lin,and Shuicheng Yan.深人使用活动模板回归进行解析。IEEE Transactions onPattern Analysis and Machine Intelligence,37(12):2402[16] Chenxi Liu , Liang-Chieh Chen , Florian Schroff ,Hartwig Adam,Wei Hua,Alan L Yuille,and Li Fei-Fei.自动deeplab:用于语义图像分割的分层神经结构搜索。在IEEE计算机视觉和模式识别会议(CVPR)中,第82[17] 乔纳森·朗埃文·谢尔哈默和特雷弗·达雷尔用于语义分段的全卷积网络。在IEEE计算机视觉和模式识别会议中,第3431-3440页[18] 潘金山,胡哲,苏志勋,李新英,杨铭轩。软分割引导的对象运动去模糊。在IEEE计算机视觉和模式识别会议(CVPR)中,第459-468页[19] Wenqi Ren,Si Liu,Hua Zhang,Jinshan Pan,XiaoxunCao,and Ming-Hsuan Yang.基于多尺度卷积神经网络的单图像去雾。在欧洲计算机视觉会议(ECCV),2016年。[20] Olaf Ronneberger,Philipp Fischer,and Thomas Brox. U-net:用于生物医学图像分割的卷积网络。医学图像计算和计算机辅助干预国际会议,第234-241页。施普林格,2015年。[21] 奥斯曼·斯拜卡米尔·库普里马蒂厄·奥布里通过学习参数层 分 解 生 成 矢 量 图 像 。 arXiv 预 印 本 arXiv :1812.05484,2018。[22] 戴玉荣、贾佳雅及邓志强。软色彩分割及其应用。IEEE Transactions on Pattern Analysis and MachineIntelligence,29(9):1520-1537,Sep. 2007.[23] Tan Jianchao,Jose Echevarria,and Yotam Gingold.通过rgbxy空间几何学实现基于调色板的高效图像分解和重建。ACM图形交易(TOG),37(6):262:1-262:10,12月。2018年。[24] Tan Jianchao,Jyh-Ming Lien,and Yotam Gingold.通过RGB空间几何结构将图像分解成层。ACM图形交易(TOG),36(1):7:1-7:14,11月。2016年。[25] Jingwe eiTang,Yagız Aksoy,CengizOüztireli,MarkusGross,和通奇·奥赞·艾登基于学习的自然图像抠图采样在IEEE计算机视觉和模式识别会议,2019年。[26] Yu Wang,Yi Niu,Peiyong Duan,Jianwei Lin,andYuanjie Zheng.基于深度传播的图像抠图。在IJCAI,第999-1006页[27] Qiang Wen , Yinjie Tan , Jing Qin , Wenxi Liu ,Guoqiang Han,and Shengfeng He.单图像反射消除超出线性。在IEEE计算机视觉和模式识别会议(CVPR)上,2019年6月。[28] Huikai Wu , Shuai Zheng , Junge Zhang , and KaiqiHuang.快速端到端可训练引导过滤器。IEEE计算机视觉和模式识别会议(CVPR),第1838-1847页[29] Ning Xu,Brian Price,Scott Cohen,and Thomas Huang.深度图像抠图。在IEEE计算机视觉和模式识别会议(CVPR),2017年7月。8286[30] 陆洋,宋庆,王智辉,姜明。解析r-cnn用于实例级的人 工 分 析 。 在 IEEE 计 算 机 视 觉 和 模 式 识 别 会 议(CVPR)上,2019年6月。[31] Zhang和Vishal M.帕特尔使用多流密集网络的密度感知单个图像去训练。在IEEE计算机视觉和模式识别会议,2018年。[32] 张静、杨操、帅芳、于康、常文臣。夜间图像用户的快速去雾-最大反射率优先。在IEEE计算机视觉和模式识别会议(CVPR),2017年7月。[33] Xuaner Zhang,Ren Ng,and Qifeng Chen.具有感知损失的单个图像反射分离。在IEEE计算机视觉和模式识别会议(CVPR),2018。[34] Yunke Zhang,Lixue Gong,Lubin Fan,Peiran Ren,Qixing Huang,Hujun Bao,and Weiwei Xu.用于数字抠图的后期融合cnn。在IEEE计算机视觉和模式识别会议,第7469-7478页[35] Hengshuang Zhao , Jianping Shi , Xiaojuan Qi ,Xiaogang Wang,and Jiaya Jia.金字塔场景解析网络。在IEEE计算机视觉和模式识别会议中,第2881-2890页[36] Bolei Zhou , Agata Lapedriza , Aditya Khosla , AudeOliva,and Antonio Torralba.地点:一个用于场景识别的 1000 万 图 像 数 据 库 。 IEEE Transactions on PatternAnalysis and Machine Intelligence,2017。[37] 朱青松,麦家明,凌少。基于颜色衰减先验的单幅图像快 速 去 雾 算 法 。 IEEE Transactions on ImageProcessing,24(11):3522
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![application/x-rar](https://img-home.csdnimg.cn/images/20210720083606.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)