没有合适的资源?快使用搜索试试~ 我知道了~
4120从扫描的半色调印刷品中深度恢复旧照片高启凡上海交通大学gaoqifan@sjtu.edu.cn小舒麦克马斯特大学shux@mcmaster.caMcMasterUniversity麦克马斯特大学xwu@ece.mcmaster.ca摘要不幸的是,大量珍贵的历史照片他们的原始连续色调胶片早已丢失或不可修复地损坏。已经尝试将这些老式半色调印刷品数字化地恢复到原始胶片质量或更高。然而,即使使用强大的深度卷积神经网络,仍然难以获得令人满意的结果。主要的挑战是,退化过程是复杂和复合的,而几乎没有配对的真实数据可用于机器学习。 在这项研究中,我们开发了一种新的学习策略,其中恢复任务分为两个阶段:印刷伪像的去除和半色调的逆处理。我们的技术的优点是,只有简单的第一阶段,这使得该方法适应真实的半色调打印,需要无监督的训练,而更复杂的第二阶段的逆半色调只使用合成训练数据。广泛的实验表明,所提出的技术的有效性,真正的半色调打印,新技术显着,icantly优于现有的视觉质量。1. 介绍在19世纪30年代后期,相机照片首次成功地在银盐感光纸上显影[22]。为了用黑色墨水在普通纸张上大规模复制这些照片,威廉·亨利·福克斯·塔尔博特发明了半色调印刷,这是一种在摄影术诞生后不久使用不同大小的墨点来模拟不同灰度的技术[38]。使用这种技术的第一个印刷照片的例子早在1873年就出现在美国期刊上。从那时起,无数珍贵的历史照片以半色调印刷品的形式保存下来-这项研究得到了加拿大自然科学和工程研究委员会(NSERC)的支持。†本研究是在作者访问上海交通大学期间完成的。(a) 原始(b)清洁(c)恢复图1:所提出的技术将真实半色调打印恢复的任务分为两个阶段:印刷伪像的去除(a)→(b)和半色调化的逆(b)→(c)。只有相对简单的第一阶段需要无监督的训练。逆半色调的第二阶段可以容易地用合成数据训练。在第二天,再现这些丢失的原始照片的唯一可能性是逆半色调处理。最近,深度学习在图像恢复方面的成功引起了人们对使用机器学习方法进行逆半色调的兴趣已经提出了几种基于深度卷积神经网络(DCNN)的技术来解决该问题[14,42,41,19]。他们的总体思想是使用制造图像对(Y,X)训练端到端映射,其中Y是潜在连续色调照片X的数字半色调结果。然而,这种做法是一种有严重缺陷的权宜之计。没有一种DCNN方法可以令人满意地反转历史照片的扫描半色调印刷,因为从19世纪80年代到20世纪50年代的浮雕半色调印刷工艺的网点图案与数字半色调的网点图案非常不同用于图像恢复的黑盒DCNN方法的一个臭名昭着的弱点是,即使用于训练和推理的图像之间的偏差非常小,也为了进一步加剧这个问题,扫描的旧半色调印刷品也有其他瑕疵,例如油墨污迹,印刷缺陷,印刷缺陷等。4121每纤维结构、纸张损坏等。如何克服基于学习的逆半调算法中的这些困难是本研究的技术重点。与直接端到端DCNN映射(图像恢复中的主流深度学习方法)不同,我们采用了两阶段深度学习的新策略,如图1所示。这两个阶段是两个级联的DC-NN,Ns和Ni,用于两个紧密耦合的学习任务。后端子网N1用于逆半色调的任务,即,X的推理,但输入的Ni是合成半色调图像Y而不是实际扫描的半色调印刷品Y。的合成的半色调图像Y起着绕过用于训练的没有配对的老式照片及其半色调印刷品的障碍的作用这些中间训练半色调图像Yi由基于物理的模型M生成,即,(X)=M(X)。然而,该现实模型M不能模拟老式半色调印刷品的所有复合噪声和伪像;它的输出Y仍然只是有关的近似值,真正的半色调打印Y,这是深度学习想要但无法实现的。模型精度差距由前端子网Ns闭合,称为伪影去除阶段。在该阶段中,DCNN将数字化的旧半色调印刷品Y映射到其合成的对应物Y′,旨在消除在上述旧半色调印刷品中发现的常见瑕疵由于缺乏真实的配对数据,子网Ns需要无监督学习。然而,由于Y和Y之间的映射非常简单,无监督学习可以将这个问题解决到所需的精度。因此,通过将原始问题分为两个阶段并分别处理它们,所提出的技术可以有效地从旧半色调印刷品中恢复高质量的图像。本文的其余部分组织如下。第2节概述了相关的对象计数技术。第3节讨论了拟议的两阶段战略。第4节提出了评估我们的技术与不同的实验和第5节的结论。2. 相关工作基本上,半色调是将模拟信号的灰度变换为二进制信号的占空虽然该过程去除了原始图像的大部分高频分量,但是低频分量通常被很好地保留。因此,逆半色调的最常见的常规策略是使用低通滤波器,诸如边缘保留滤波[29,26,21]。Xiong等提出了一种小波域滤波技术,用于减少使用误差扩散产生的数字半色调这种技术emoys跨尺度相关性,以提高保留的边缘在半色调文物的去除。在[32]中,Siddiquiet al.采用改进的局部自适应SUSAN滤波器抑制半色调模式。他们还开发了一个高效的基于局部梯度的方法,称为HFD,其在平滑区域中表现出良好的性能,但在边缘周围无效[33]。在[36]中,Sun等人使用BM3D[6]以去除半色调打印中的伪像。该方法还采用自适应高斯滤波进一步平滑图像,采用双边滤波提高边缘的锐度Ciobanu等人提出了一种伪影去除技术,以清除扫描半色调打印中的缺陷,作为半色调恢复的预处理步骤[5]。统计学习也被广泛用于许多逆半色调技术中,例如查找表(LUT)[4]、最小均方(LMS)滤波[3]、最大后验概率(MAP)[35]和稀疏表示[34]。 Mese等人提出了一种递归模板选择算法,用于使用构造的LUT生成向量表和像素值估计[28]。Stevenson等提出了一种基于MAP的逆半调技术,该技术利用马尔可夫随机场中定义的图像分布先验[35]。在[49]中,Zhanget al.摘要提出了一种基于结构的多字典学习方法,该方法利用 从 图 像 块 组 中 学 习 到 的 特 征 字 典 。 在 [16]中 ,Huanget al. 提 出 了 一 种 径 向 基 函 数 神 经 网 络(RBFNN)的逆半调图像。Pelcastre等人提出了一种使用多层神经网络来改善低通滤波半色调图像的图像质量的方法[30]。最近,DCNN在图像恢复方面显示出了巨大的潜力,并且已经在包括逆半色调在内的各种问题上达到了最先进的水平例如,对于基于误差扩散的数字半色调图案,在一些研究中已经研究了基于ResNet和U-Net的逆半色调技术[41,14,42]。这些提出的技术中的一些采用更复杂的感知约束[18]来提高其输出的视觉质量。对于常规的点形半色调图案,Kimet al.提出了一种DCNN技术,该技术可以通过使用分段子网和边缘检测子网来合并更多的上下文信息[19]。总体而言,这些方法的性能仅使用合成半色调图像进行训练,这些方法不能正确处理从旧出版物扫描的真实半色调图像中的各种退化,从而导致不准确和有噪声的输出。除了有目的地设计的逆半色调DCNN之外,还可以针对逆半色调任务重新训练一些通用DCNN例如,风格转换网络将输入图像映射到不同的风格,而不需要严格配对的训练数据[9],可以将半色调图像转换为规则的干净图像,给出这些图像的足够样本。GAN [10]被广泛用于弥合端到端映射学习中不同分布之间的差距,也有助于缓解逆算法缺乏成对训练数据的问题。4122中间对象ive,合成半色调图像Y,将原始映射网络N:Y→X分成两个级联子网Ns:Y→Y且Ni:Y-X。 第一阶段复古半色调打印合成半色调图像图2:很难精确模拟真实的半色调印刷品,因为它们经常受到各种类型的问题的困扰,例如油墨涂抹,纸张磨损等。半色调许多最近的图像恢复技术已将GAN纳入其设计中[46,8,40]。另一种可能解决逆半色调问题的有趣技术是CycleGAN [50,44]。CycleGAN使用两个相反方向的图像到图像转换网络来从未配对的数据生成和验证配对的训练数据理论上,CycleGAN能够解决图像恢复问题,而无需给出显式的退化模型。3. 两阶段恢复如前所述,使用深度学习技术进行逆半调的主要挑战是缺乏配对数据。由于旧照片中的低质量半色调打印通常是照片的唯一幸存副本,因此不可能构建足够大的真实图像对的训练集。该问题的一个常见解决方案是使用合成数据进行训练[14,19]。这种方法的主要如图2所示,由于真实的旧半色调印刷品上的瑕疵类型差异很大,因此很难模拟多种退化原因的复杂复合效果达到所需精度。因此,当处理真实半色调图像时,合成数据训练技术的性能通常显著恶化另一种解决方案是使用无监督学习[17,50]。虽然这种方法不需要严格配对的训练数据,但经过训练的网络可能无法准确地学习退化图像和干净图像之间的语义连接,从而导致输出中的各种类型的伪影。我们的方法是上述两种解决方案的混合代替使用从真实半色调印刷Y到其连续色调对应物X的直接端到端映射网络N,我们采用两阶段深度学习的策略。该策略的关键思想是添加一个新的跨-subnet是伪影去除子网,其将输入实半色调图像Y映射到其合成对应物尽管缺乏严格配对的数据,但使用无监督学习技术很容易训练Ns第二级子网Ni是逆半色调子网,其将输入的合成半色调图像Y映射到其连续色调对应物X。由于可以使用半色调合成器M容易地生成足够的成对图像,因此也容易训练Ni因此,通过划分原始的直接端到端映射,我们将恢复任务分解为两个更容易处理的子问题。3.1. 架构第一阶段半色调伪影去除子网的目标是去除在旧半色调印刷品中发现的常见瑕疵,使得所得图像在统计上接近合成半色调印刷品。子网应该只修复半色调打印的缺陷并重建墨点,即,点的形状、大小和灰度,而图像的内容不变。为了实现这样的目标,子网Ns不需要具有大量的参数,但是足够大的接收场对于保持半色调图案是必要的。如图3的左侧部分所示,伪影去除子网的架构基于自动编码器[13,7]。网络的编码器然后在解码器部分中根据图像内容使用在合成半色调图像中找到的理想半色调图案来重建细节。编码器和解码器部分都由8个卷积层组成为了减少不必要的信息提取,在编码器和解码器之间的对应层中采用跳过连接[12,27,17]。第二阶段逆半色调子网N1的目标是去除合成半色调图案并重建高质量图像。该子网的基本架构如图3的右侧所示。在半色调处理期间,原始图像的低频分量大部分被保留,而高频分量严重失真。原始高质量图像的语义信息因此,我们在子网的开始处添加跳过连接,以便为优化中的梯度传播提供路径,从而降低训练的难度我们还使用两个跨步卷积层来扩展感受野。灵感来自于密集的街区4123SYss1S图3:所提出的技术的网络架构 符号C、U、I、L、R、T表示卷积层、转置卷积层、实例归一化、LeakyReLU(α= 0. 2)、ReLU和Tanh图4:RRDB块。 符号C、L、M表示卷积。逆半色调的目标函数。在该阶段中,大量的成对合成数据{Y^,X}是可用的。因此,可以使用直接的端到端监督学习来执行训练。与许多其他基于DCNN的图像恢复技术一样,我们使用L1范数作为目标函数,如下所示:层,LeakyReLU(α= 0. 2)分别为残差缩放L阶段2 =EY,X<$Ni(Y<$)−X<$1。(四)[15,48,40],我们使用密集连接来增加网络容量高频信息预测是基于抽象上下文特征空间,具有如图4所示的残差密集块(RRDB)中的16个堆叠残差残差缩放[24,37]也用于防止不稳定性。3.2. 目标函数在所提出的技术的训练中,首先使用不同的目标函数分别训练两个子网Ns和Ni然后,我们将这两个子网组合在一起,形成如图3所示的完整网络,并联合训练它们。半色调伪影去除的目标函数。使用GAN技术训练从Y到Y的映射函数Ns,其中对抗性损失被定义为:LNs=EY[− log(D(Ns(Y)](1)判别网络D与Ns[10]联合训练。为了提高网络的性能并稳定训练,我们添加了一个从Y到Y的逆映射网络N’,与N共享相同的架构,以形成CycleGAN [50]中的循环除了逆映射网络的对抗性损失之外,还采用循环一致性损失,其被定义为:联合训练的目标函数。为了进一步改进该技术的性能,我们在完成子网Ns和Ni的单独训练之后联合微调子网Ns和Ni由于不存在真实半色调印刷品及其高质量对应物的真实配对训练数据{Y,X},因此简单的端到端监督学习对于该任务是不可行的。来解决这个问题。我们借用深度学习的思想与代理地面真相[25]。对于每个输入真实半色调印刷品Y,我们使用被称为Sattva[1]的基于滤波的逆半色调运算器来生成替代地面实况图像S(Y)虽然Sattva很好地保留了输入图像的低频分量,但它通常无法将高频分量重建到真实半色调打印所需的精度。因此,在替代损失中,仅将联合网络N的结果的低频分量与替代基础事实进行比较,如下所述,Ls=EY <$F(N(Y))− F(S(Y))<$1,(5)其中F是去除输入图像的高频信息的函数在所有呈现的实验中,我们使用预训练的19层VGG网络作为F。为了防止过度平滑并生成逼真的结果,在联合训练中还添加对抗性损失Ladv。通过结合先前个体训练中使用的损失L循环=E[N′(N(Y))−Y]我们得出联合训练目标函数的最终公式+E [N(N′(Y))−Y1](2)Yss半色调伪影去除子网的总体目标函数如下,L阶段1= LNs+ LN′+ L循环(3)L形接头 =λ1Lstage1+λ2Ls+λ3Ladv(6)其中λ1、λ2和λ3是平衡不同目标项的权重。41244. 实验为了评估所提出的两阶段技术的性能,我们使用PyTorch实现了基于DCNN的算法,并将其与其他几种流行的逆半色调技术进行了在本节中,我们讨论实验的细节4.1. 数据集和培训详细信息用于训练逆半色调子网Ni的地面实况图像是从几个流行 的图 像 数 据 集 收 集 的 , 包 括 DIV 2K [2] 、OutdoorScene [39] 、 He-len [23] 、 IBUG [31] 、UTKFace [47]。从总共收集的12436张高质量图像中,随机选择8700张用于训练。相应的合成半色调图像由上述半色调图像合成器以随机的半色调尺度和角度从这些图像生成。使用真实的复古半色调印刷品作为参考,相邻半色调点的距离设置在3和9之间;在我们的实验中,图案的角度设置在15◦和75◦为了评估半色调伪影去除子网和联合网络,从旧报纸和书籍中扫描379张老式照片印刷品,其中195张图像用于训练。首先分别针对120和500个历元单独训练两个NNN s,Ni在这两种情况下,学习率设置为0.0002的训练过程的前半部分,然后线性下降到0。所有网络均采用Kaiming初始化[11]。在β 1 = 0的优化中使用Adam优化器。5[20]。在两个子网的训练之后,整个网络以学习率0联合训练另外 120个时期。00005 N 的判别器与DCGAN的判别器共享类似的架构。它们的主要区别在于,所提出的方法使用实例规范化而不是批规范化。N1的鉴别器采用VGG风格的架构,但其中最大池化由跨步卷积代替。对于联合训练目标函数,如在等式(1)中。(6)中,权重λ1、λ2、λ3分别被经验地设置为1、0.5和1所有的实验都在具有NVIDIA GTX Titan XGPU的计算机上进行4.2. 基线算法为了评估所提出的技术的性能,还测试了以下算法以进行比较。圣泛[1]。这是一个基于低通滤波的方法,作为Photoshop的插件实现。它自动检测半色调的密度,并应用相应的低通滤波器,以防止过度平滑和莫尔图案。Sattva是在视觉质量方面最好的常规逆半调技术之一。ESRGAN[40].这最初是一种最先进的基于学习的单图像超分辨率算法。到ESRGANUnet提出PSNR29.9428.6030.10SSIM0.89040.85610.8951表1:所测试的技术对合成数据的平均PSNR和SSIM性能。半色调ESRGAN Unet图5:合成图像上的算法的示例结果。重新利用ESRGAN作为逆半色调技术,我们首先使用高斯核将给定的半色调图像降采样为4倍,然后将结果馈送到ESR-GAN以将图像恢复到原始比例。一般来说,即使在GAN的帮助下,这种方法的性能也比直接端到端映射网络好得多。其原因在于,由于原始图像的大多数高频分量在半色调处理期间严重失真,因此真实半色调图像的精细细节,包括纸张纤维结构、油墨污迹等,提供很少或没有有用的信息,并且经常成为干扰源。下采样极大地减少了这个问题,使得ESRGAN方法对于逆半色调更有效为了进一步提高基线性能,我们使用我们的数据集重新训练CycleGAN[50]. 这 是 未 配 对 的 图 像 到 图 像 转 换DCNN。由于CycleGAN学习从源域到目标域的映射,我们直接使用来自我们数据集的未配对真实半色调图像和连续色调图像来训练CycleGAN[14][19] [19][19]这两种方法都是基于学习的逆半调方法,对合成半调图像产生了良好的效果。Unet的实现[14]来自原作者。我们使用我们的数据集微调了他们的预训练模型。对于DescreenNet [19],由于其实现尚未公开,因此我们仅比较作者在我们的评估中发表的结果4.3. 算法比较表1中示出了在合成数据集上测试的算法的定量评估结果。为了公平-4125SS哈夫尔托内圣泛ESRGAN精度0.60120.74840.7086CycleGANUnet提出精度0.74650.73310.7576表2:MTCNN面部检测算法对通过逆半色调技术恢复的图像的准确性在比较中,针对ESRGAN和所提出的方法禁用对抗优化。如表所示,所提出的方法取得了最好的结果,但差异不显著。合成试验结果的一些样品如图5所示。对于合成半色调图像,该方法比竞争方法表现出更多的细节。相比之下,ESRGAN和Unet的结果看起来很模糊。当涉及到实际的扫描半色调印刷品,该算法的性能是远远优于其他测试算法。图6显示了DescreenNet [19]的作者提供的真实半色调打印如图所示,所提出的方法比Sattva和其他基于DCNN的方法产生更清晰、更自然的细节所提出的算法也适用于我们的扫描半色调打印集,其中包括肖像和户外风景,如图7所示。相比之下,我们的算法产生更干净和精致的结果。它还生成比其他DCNN方法更逼真的细节。比较技术的结果经常受到高频噪声和令人不快的伪影的困扰。补充资料中提供了更多的实验结果以及与其他方法的比较由于大多数真实的老式半色调印刷品的原件在过去早已丢失,因此在没有地面实况的情况下很难客观地评估逆半色调技术在真实半色调印刷品上的性能。因此,而不是使用直接的定量测量,我们评估的性能恢复图像的逆半色调方法的恢复质量的间接证据的人脸检测。表2所示为预训练MTCNN[45]对输入的半色调印刷品和相应的结果通过测试的逆半色调方法。当其输入图像是所提出的方法的结果时,MTCNN实现了最佳性能。这表明,所提出的方法产生的半色调肖像与其他测试技术相比,文物量最少。4.4. 拟定方法的消融研究在这一小节中,我们测试了我们的完整架构的各种消融,以评估所提出的算法的每个组件的效果。伪影移除子网。图8b示出了没有伪影去除子网的所提出的算法虽然结果在粗略比例下看起来很逼真,但许多缺陷(如纸张纤维图案和瑕疵)是从输入半色调打印中遗留下来的,从而使结果在精细比例下看起来有噪声ESRGAN和Unet的结果也显示了这个问题,如图7所示。逆半色调子网。图8c呈现了在没有逆半色调子网的情况下所提出的算法的如图所示,结果细节丰富,但总体上看起来不切实际,并且在平滑区域中包含严重的伪影,类似于图7所示的CycleGAN结果。尽管在不存在逆半色调子网的情况下使用未配对的数据来训练DCNN仍然是可能的,但是使其精确地学习复古半色调印刷品的复杂和复合退化太困难了。中间合成半色调图像提供了一个重要的指导,大大降低了问题的难度。联合训练。图8d示出了在没有最终联合训练的情况下所提出的算法虽然如图所示成功地去除了大多数纸纤维和半色调图案,但是在平滑区域中仍然存在一些伪影。相比之下,联合优化版本的结果没有显示出这些问题的迹象,如图8e所示。4.5. 改进现有方法我们还研究了使用我们的伪影去除子网Ns改进现有逆半色调方法的可能性。如图9b所示,直接在实际扫描的半色调印刷品上使用Unet通常会在所得图像中留下令人讨厌的噪声。如图9c所示,通过首先用伪影去除子网Ns预处理输入真实半色调印刷品,极大地改善了Unet的输出图像的视觉质量许多类似的逆半色调方法在处理真实的老式半色调印刷品时可以受益于预先训练的子网Ns4.6. 真实感半色调图像的生成有趣的是,利用在Ns的训练中使用的逆伪影去除子网N’,我们还可以从干净的合成半色调图像生成逼真的半色调图像,如图10所示。因此,子网N ′可以作为一个更真实的半色调图像合成器,用于半色调图像恢复的进一步研究。4.7. 模型大小和计算时间表3总结了使用现有方法处理512×512图像的模型尺寸和计算时间。原作者报告的DescreenNet [19]的时间成本也被列为参考。4126半色调Sattva [1] ESRGAN [40] CycleGAN [50] Unet [14] DescreenNet [19]建议图6:[19]提供的真实半色调打印算法的样本结果。Halftone Sattva [1] ESRGAN [40] CycleGAN [50] Unet [14]建议图7:从旧出版物扫描的真实半色调打印的算法的示例结果。4127S(a) 输入(b)无伪影去除 (c)无逆半调(d)无联合训练(e)完整版本图8:所提出技术的消融研究。当同时采用伪影去除和逆半调处理时,网络的性能最好。(a) 半色调印刷(b)Unet(c)Ns+Unet图9:通过使用所提出的伪影去除子网Ns对输入半色调打印进行预处理,Unet的输出质量大大提高。(a) 输入(b)合成(c)真实图10:使用逆伪影去除子网N′,我们可以生成逼真的半色调图像。4.8. 限制如果输入的半色调印刷品严重损坏,所提出的方法可能无法完全重新覆盖原始照片以达到所需的质量。如图11中所例示的它也可能将墨点误认为真实信号,并将其留在恢复的图像中。该问题的可能解决方案是添加预处理阶段以检测墨点或其他类型的缺陷。然后,我们可以使用其他恢复技术,如图像修复,分别恢复这些区域。表3:使用现有方法处理大小为512×512的输入图像的模型大小和计算时间的比较方法时间(s)参数(×106)乌纳特[14]0.00313.603法国国家卫生研究院[42]0.0033.478ESRGAN[40]0.05416.696CycleGAN[50]0.00511.366[19]第十九话0.070N/A提出0.04271.283图11:失效案例示例一些严重的瑕疵会破坏修复。5. 结论在这项研究中,我们提出了一种新的策略,将真实半色调打印恢复的任务分为两个阶段:印刷伪像的去除和半色调的反转。我们的技术的优点是,只有简单的第一阶段需要无监督训练,而更复杂的第二阶段的逆半色调可以很容易地训练与合成数据。大量的实验结果表明,所提出的算法的优越性超过了国家的最先进的老式半色调打印。4128引用[1] Sattva desscreen. http://www.descreen.net/,2019年。[2] Eirikur Agustsson和Radu Timofte。Ntire 2017挑战单幅图像超分辨率:数据集和研究。在IEEE计算机视觉和模式识别会议上,2017年7月。[3] 陈立明和杭学明。一种自适应逆半调算法。IEEE图像处理学报,6(8):1202[4] 钟国梁和吴世通。 使用基于边缘的查找表方法的逆半色调算法。IEEE Transactions on Image Processing,14(10):1583[5] 阿德里安·乔巴努都铎·巴布和米哈埃拉·卢卡古籍中半色调印刷图片的图像复原国际电子学、计算机和人工智能会议,第91页。IEEE,2018年。[6] Kostadin Dabov、Alessandro Foi、Vladimir Katkovnik和Karen Egiazarian。稀疏三维变换域协同滤波图像去噪IEEE Transactions on image processing,16(8):2080[7] Gabriel Eilertsen , Joel Kronander , Gyorgy Denes ,RafałK Mantiuk,and Jonas Unger.使用深cnn从单次曝光重 建 Hdr 图 像 。 ACM Transactions on Graphics(TOG),36(6):178,2017。[8] DenizEngin,AnılGen c,andHazımKemalE k enel. 循环去雾:增强型循环去雾器,用于单幅图像去雾。arXiv预印本arXiv:1805.05308,2018。[9] Leon A Gatys,Alexander S Ecker,and Matthias Bethge.使用卷积神经网络的图像风格转换。在IEEE计算机视觉和模式识别会议论文集,第2414-2423页[10] 伊恩·古德费洛、让·普盖特-阿巴迪、迈赫迪·米尔扎、许冰、大卫·沃德-法利、谢尔吉尔·奥扎尔、阿伦·库维尔和约舒亚·本吉奥。生成性对抗网。 在神经信息处理系统的进展,第2672[11] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun. 深入研究整流器:超越人类对imagenet分类的水平。在IEEE计算机视觉国际会议论文集,第1026-1034页[12] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.深度剩余网络中的身份映射。在欧洲计算机视觉会议上,第630-645页。施普林格,2016年。[13] Geoffrey E Hinton和Ruslan R Salakhutdinov.用神经网络降低数据的维数。science,313(5786):504[14] 先虚侯和裘国平。使用深度卷积神经网络的图像压扩和逆半调。arXiv预印本arXiv:1707.00116,2017。[15] Gao Huang,Zhuang Liu,Laurens Van Der Maaten,andKilian Q Weinberger.密集连接的卷积网络。CVPR,第1卷,第3页,2017。[16] Win-Bin Huang,Alvin WY Su,and Yau-Hwang Kuo.基于神经网络的图像半调逆处理半色调专家系统与应用,34(4):2491[17] Phillip Isola,Jun-Yan Zhu,Tinghui Zhou,and Alexei AEfros.使用条件对抗网络的图像到图像翻译。在计算机视觉和模式识别(CVPR),2017年IEEE会议上,2017年。[18] 贾斯汀·约翰逊,亚历山大·阿拉希,李飞飞。实时风格转换和超分辨率的感知损失。欧洲计算机视觉会议,第694-711页。施普林格,2016年。[19] 金泰勋和朴相日半色调图像的深度上下文感知去筛选和重新筛选。ACM Trans- actions on Graphics(TOG),37(4):48,2018.[20] Diederik P Kingma和Jimmy Ba。Adam:随机最佳化的方法。arXiv预印本arXiv:1412.6980,2014。[21] Thomas D Kite , Niranjan Damera-Venkata , Brian LEvans,and Alan C Bovik.一个快速、高质量的误差扩散半 色 调 逆 半 色 调 算 法 。 IEEE Transactions on ImageProcessing,9(9):1583[22] Dorothy M Kosinski和Dorothy M Kosinski。艺术家与相机:德加到毕加索。达拉斯艺术博物馆,德克萨斯州,1999年。[23] Vuong Le , Jonathan Brandt , Zhe Lin , LubomirBourdev,and Thomas S Huang.交互式面部特征定位。欧洲计算机视觉会议,第679-692页。Springer,2012.[24] Bee Lim , Sanghyun Son , Heewon Kim , SeungjunNah,and Kyoung Mu Lee.单图像超分辨率的增强深度残 差 网 络 。 在 IEEE 计 算 机 视 觉 和 模 式 识 别 会 议(CVPR)研讨会上,第1卷,第4页,2017年。[25] 刘博林,舒晓,吴晓林。使用不准确的训练数据进行深度 学 习 以 进 行 图 像 恢 复 。 arXiv 预 印 本 arXiv :1811.07268,2018。[26] Jiebo Luo,Ricardo De Queiroz,and Zhigang Fan.一种基于小波变换的鲁棒图像去噪IEEE Transactions on SignalProcessing,46(4):1179[27] 毛晓娇,沈春华,杨玉斌。使用具有对称跳跃连接的非常 深的 卷积 编码 器-解 码器 网络 的图 像恢 复 。InAdvances神经信息处理系统,第2802-2810页,2016年。[28] Murat Mese和Palghat P Vaidyanathan.逆半调之查表IEEETransactions on Image Processing,10(10):1566[29] Christopher M Miceli和Kevin J Parker。逆半色调。Journal of Electronic Imaging,1(2):143[30] Fernando Pelcastre-Jimenez、Mariko Nakano-Miyatake、Ka- rina Toscano-Medina 、 Gabriel Sanchez-Perez 和Hector Perez-Meana。基于神经网络和up(x)原子函数的逆半调算法在计算机和信号处理(TSP)中,2015年第38届国际会议,第523-527页IEEE,2015年。[31] Christos Sagonas 、 Epameinondas Antonakos 、 GeorgiosTz-imiropoulos、Stefanos Zafeiriou和Maja Pantic。300面对4129野外挑战:数据库和结果。图像和视觉计算,47:3[32] Hasib Siddiqui和Charles A Bouman。基于训练的去筛选。IEEE transactions on image processing,16(3):789[33] Hasib Siddiqui,Mireille Boutin,and Charles A Bouman.硬件友好的去网。IEEE图像处理学报,19(3):746[34] CH Son和HM Park。基于稀疏性的逆半色调。Electronics letters,48(14):832[35] 罗伯特·L·史蒂文森通过映射估计的逆半色调。IEEETransactions on Image Processing,6(4):574[36] 孙斌,李树涛,孙军。扫描图像消网与图像冗余和自适应 滤 波 。 IEEE Transactions on Image Processing , 23(8):3698[37] Christian Szegedy、Sergey Ioffe、Vincent Vanhoucke和Alexander A Alemi。起始-v4,起始-resnet和剩余连接对学习的影响。在AAAI,第4卷,第12页,2017中。[38] 迈克尔·特威曼和鲁阿里·麦克莱恩印刷1770-1970:它在英国的发展和使用的图解历史。伦敦大英图书馆,1998年。[39] Xintao Wang,Ke Yu,Chao Dong,and Chen ChangeLoy.基于深度空间特征变换的图像超分辨率真实感纹理恢 复 。在 IEEE 会 议 上计 算 机 视 觉 和 模 式 识 别(CVPR),2018年6月。[40] Xintao Wang,Ke Yu,Shixiang Wu,Jinjin Gu,YihaoLiu , Chao Dong , Yu Qiao , and Chen Change Loy.Esrgan:增强型超分辨率生成对抗网络。在欧洲计算机视觉研讨会(ECCVW)上,2018年9月。[41] Menghan Xia和Tien-Tsin Wong。通过渐进式残差学习的深度逆在亚洲计算机视觉会议上,第59页,2018年。[42] 伊萧、潘朝、朱贤一、姜海、严政。深度神经逆半色调。2017年虚拟现实和可视化国际会议(ICVRV),第213-218页IEEE,2017年。[43] Zixiang Xiong , Michael T Orchard , and KannanRamchan-dran.使用小波的逆半色调。IEEE图像处理学报,8(10):1479[44] 自立一、张浩、谭平、龚明伦。Dual- gan:用于图像到图像翻译的无监督双重学习在IEEE计算机视觉国际会议论文集,第2849-2857页[45] K. Zhang,Z. Zhang,Z. Li和Y.乔使用多任务级联卷积网 络 的 联 合 人 脸 IEEE Signal Processing Letters , 23(10):1499[46] 张凯、左王梦、张磊。学习单个卷积超分辨率网络以进行多次降级。在IEEE计算机视觉和模式识别会议上,第6卷,2018年。[47] 张宋扬、张志飞、齐海蓉。通过条件对抗自动编码器的年龄进展/回归。在IEEE计算机视觉与模式识别会议(CVPR)。IEEE,2017年。[48] Yulun Zhang,Yapeng Tian,Yu Kong,Bineng Zhong,and Yun Fu.用于图像超分辨率的残差稠密网络在IEEE计算机视觉和模式识别会议(CVPR),2018。[49] Yan Zhang,Erhu Zhang,Wanjun Chen,Yajun Chen,and Jinghong Duan.经由半耦合多字典学习和结构聚类的基于稀疏性的逆半色调。人工智能的工程应用,72:43[50] Jun-Yan Zhu , Taesung Park , Phillip Isola , Alexei AEfros.使用循环一致对抗网络的不成对图像到图像翻译。在计算机视觉(ICCV),2017年IEEE国际会议上,2017年。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 李兴华Java基础教程:从入门到精通
- U盘与硬盘启动安装教程:从菜鸟到专家
- C++面试宝典:动态内存管理与继承解析
- C++ STL源码深度解析:专家级剖析与关键技术
- C/C++调用DOS命令实战指南
- 神经网络补偿的多传感器航迹融合技术
- GIS中的大地坐标系与椭球体解析
- 海思Hi3515 H.264编解码处理器用户手册
- Oracle基础练习题与解答
- 谷歌地球3D建筑筛选新流程详解
- CFO与CIO携手:数据管理与企业增值的战略
- Eclipse IDE基础教程:从入门到精通
- Shell脚本专家宝典:全面学习与资源指南
- Tomcat安装指南:附带JDK配置步骤
- NA3003A电子水准仪数据格式解析与转换研究
- 自动化专业英语词汇精华:必备术语集锦
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功