没有合适的资源?快使用搜索试试~ 我知道了~
视觉信息学6(2022)26一种基于对偶生成对抗网络的古文字苏本鹏a,刘旭兴a,高伟泽a,杨烨a,陈善雄a,b,刘伟西南大学计算机与信息科学学院,重庆400715b中国科学院重庆绿色智能技术研究院重庆市自动推理与认知重点实验室,重庆400714ar t i cl e i nf o文章历史记录:收到2021年收到修订版,2022年1月25日接受,2022年2022年2月14日在线提供保留字:笔画形状恢复纹理恢复书法风格a b st ra ct记载不同时期历史的古籍对人类文明来说是弥足珍贵的。但其保护面临着老龄化等严重问题。修复古籍残损文字,恢复其原貌,具有重要意义。受损字的修复要求是保持笔画形状的正确和字体风格的一致。为了解决这些问题,本文提出了一种新的基于生成对抗网络的恢复方法。我们使用形状恢复网络来完成笔画形状恢复,字体恢复纹理修复网络负责重建纹理细节。 为了提高形状恢复网络中生成器的精度,我们采用对抗性特征损失(AFL)代替传统的感知损失,它可以同步更新生成器和重构器。同时,为了保持整个字符的风格一致性,提出了字体风格损失。我们的模型在Yi和Qing数据集上进行了评估,并且表明它在定量和定性上优于当前的现有技术。特别是,两个数据集的结构相似性分别增加了8.0%和6.7%版权所有©2022作者。由爱思唯尔公司出版我代表浙江大学和浙江大学出版社有限公司这是一个在CC BY-NC-ND许可证下的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。1. 介绍记载各个时期历史的古籍是人类文明的宝贵财富。目前,古籍保护面临着老化、破损等严重问题.因此,加强对这些图书的保护迫在眉睫。随着计算机技术和视觉技术的发展,利用计算机存储古籍图像已成为一种新的保护手段。然而,由于存在损坏的字符,修复工作是必要的。目前,修复工作主要由专业人员手动完成。他们首先根据字符图像周围的像素和文本提供的各种信息完成推理,然后使用图像处理工具进行恢复。但这种方法效率低下,需要一种简洁高效的恢复方法。一些研究人员试图在现有图像恢复方法的帮助下恢复字符(Ružić和Pižurica,2014年; Kawai等人,2015年)。,2015; Liet al. ,2017; Pathak et al. ,2016年)。但是,直接应用这些方法是不合适的*通讯作者:西南大学计算机与信息科学学院,重庆400715.电子邮件地址:csxpml@swu.edu.cn(美国)陈)。https://doi.org/10.1016/j.visinf.2022.02.001性格恢复主要有两个问题:第一是图像法主要保证视觉真实感,对结构关注较少。而汉字是由一定的空间布局构成的,笔画的细微变化将决定整个汉字的正确与否。图像修复方法难以完成笔画的精确修复。二是汉字的笔画和线条具有一定的文体特征。在恢复时,除了要保证字体的正确形状外,还需要保证整个字符的书写风格一致,这是图像法没有考虑到的。为了解决上述问题,并保持一致,纹理细节,提出了一种新的古文字复原方法,该方法包括两个步骤:先复原笔画形状,再复原纹理。一些恢复结果如图所示。1.一、在形状恢复网络的训练中,本文设计了对抗性特征损失(AFL),保证了字符结构的修复精度。我们还建议字体风格损失,以保持整个修复字符的书法风格。为了更好地恢复字符,我们设计了一个网络来修复纹理细节。我们评估了我们的模型在数据集Yi和Qing上,并表明它在定量和定性上优于当前最先进的技术。2468- 502 X/©2022作者。由爱思唯尔公司出版代表浙江大学和浙江大学出版社。公司这是一个在CC BY-NC-ND许可证下的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。可在ScienceDirect上获得目录列表视觉信息学期刊主页:www.elsevier.com/locate/visinfB. Su,X.Liu,W.Gao等人视觉信息学6(2022)2627Fig. 1. 第一行是损坏的字符图像,第二行是通过使用形状恢复网络获得的字符图像,第三行是最终的结果。此外,我们还探讨了损伤位置对结果的我们的主要贡献如下:我们提出了一种新的基于GAN的恢复方法,可以修复笔划形状和纹理细节。提出了将对抗性特征损失应用于形状恢复网络,在训练过程中增强了神经网络的判别能力,提高了笔画形状恢复的准确率。在形状恢复网络中,我们提出了字体风格损失,保证了整个字符书法风格的一致性。2. 相关作品2.1. 图像修复传统图像修复的研究由来已久。这些方法可以分为两类:基于扩散的方法(Ružić和Pižurica,2014; Kawai et al. ,2015;刘等人,2018; Ballester et al. ,2001)和基于补丁的方法(Fan和Zhang,2018; Li et al. ,2017年)。基于块的方法通过从图像复制相似的信息来填充损坏的区域。例如,Ružić和Pižurica(2014)提出使用马尔可夫随机场(MRF)来搜索匹配良好的补丁。该方法利用纹理描述加快了匹配块的搜索速度。这些方法可以修复具有高度重复图案的图像,但不适合于损伤区域具有独特结构的图像。基于扩散的方法主要是利用边缘信息对损伤区域进行平滑的扩展和填充。但这些方法可以恢复具有规则纹理变化的图像,但不能恢复具有语义结构的区域。由于GAN在图像样本生成领域的优势(Shaham et al. ,2019;Ledig et al. ,2017 a;Sajjadi等人,2017 a),基于GAN的图像修复方法也取得了很大进展。D.Pathak等人在2016年首次提出了一种基于GAN的结构图像修复方法(Pathak et al. ,2016),其使用编码器来将具有缺失区域的图像映射到低维特征空间,并且使用解码器来重构输出图像。 Iizuka等人 (2017年)- 结构改进,其通过减少下采样层的数量以及用扩张卷积层替换通道级全连接层来这些作者还引入了一个额外的本地缓存,以确保图像的本地一致性。Yu等人 (2018)提出了两步网络来完成细节区域的内画。面对大规模缺失区域的问题,Li et al. (2020)设计了RFR-net。2.2. 人物复原一些研究者试图通过借鉴图像复原的方法来恢复受损的文字。例如,Chen et al. (2020)提出了一种基于双鉴别器的彝族手写体文字复原方法。该方法可以有效地恢复彝族文字。Ge Song等人提出了一种基于注意力的方法(Vaswani等人,,2017; Zhanget al. ,2019年)和对抗性分类损失,可以恢复具有大缺失区域的汉字(Ledig et al. ,2017 b)。然而,这些方法的恢复结果的精度而且他们在修复时忽略了作者书法风格的一致性在上述方法的基础上,本文提出了一种基于GAN的修复方法。3. 方法基于一些实验(Iizuka et al. ,2017; Yang et al. ,2017; Yu etal. ,2018,2019;Da,2014),我们发现同时修复结构和纹理会导致某些区域的模糊和准确性降低。为了解决这些问题,我们提出了一种恢复方法(图1)。2的方法,该方法使用两个网络分别修复受损的笔画形状和纹理细节。首先,我们移除受损字符的纹理(在我们的实验中,我们使用二值化来移除纹理),然后将其馈送到形状恢复网络以修复笔划形状,最后将其馈送到纹理恢复网络。最终获得完整的字符。这两步复原是由形状补偿网络图完成的。 3和纹理恢复网络图。4所示。在这两种网络中,生成器由编码器、六个残差块和解码器组成。阿图纳斯夫妇···B. Su,X.Liu,W.Gao等人视觉信息学6(2022)2628×图二、我 们 的管道概述。(1)去除受损字符的纹理(实验中我们使用二值化去除背景纹理(2)将没有纹理的受损字符发送到形状恢复网络,以修复受损的笔划形状。(3)将去除纹理的完整字符发送到纹理恢复网络。图三. 形状恢复网络。该网络由一个生成器D1和一个CSD1组成.被损坏的字符被输入到网络。网络修复字符并输出完整的结构。见图4。 纹理恢复网络。该网络包括生成器G2和CSD2。PatchGAN结构(在形状恢复网络中,神经元的感受野为84x84,在纹理恢复网络中,神经元的感受野为70 × 70)。其次,我们介绍了形状恢复网络,包括图像特征一致性和字体风格一致性。最后介绍了纹理恢复网络,并讨论了网络的相关损失函数.3.1. 一些变量定义为了便于表达,我们需要首先定义形状恢复网络的一些基本变量。让我成为地面实况图像。I二 进制是去除了纹理的字符图像,图像掩码M作为先决条件(1表示缺失区域,0表示有效区域)。没有纹理的受损字符图像为Ibinary_masked=Ibinary_maskedB. Su,X.Liu,W.Gao等人视觉信息学6(2022)2629()=−+×L∑()L LL11==-= −+−+=JJ我113.5. 纹理恢复网络(1 M)M.这里,表示Hadamard乘积。形状恢复网络使用Ibinary_masked 和掩码M 作为输入,并且通过生成器 G1获得结果Ibinary_predG1Ibinary_masked,M。接下来,我们将依次介绍包括局部和全局一致性(PatchGAN)、图像特征一致性和字体风格一致性。3.2. 确保图像特征的一致性形状恢复网络是一种基于GAN的结构网络。该模型使用PatchGAN架构,其PatchGAN模型的最后一层输出一个N N矩阵。每个元素的值表示判断一个补丁的概率(一个补丁代表图像中的一个区域)。对抗性损失(Eq. 形状恢复网络的(1))为:3.3. 保持字体样式一致性此外,一个字也有一定的书法风格。不同的作者以不同的风格写作。为了确保为了保证修复结果的视觉真实性,修复后的字符不仅要保证正确的笔画形状,还要保持字体风格的一致性。我们使用Gram矩阵(Sajjadi等人,2017 b)来建立字符形状恢复中的字体样式损失,这优化了输出结果与原始字符图像之间的字体样式差异。Gram矩阵可以看作是特征间的偏心协方差矩阵,它反映了两个特征间的相关性,其对角元素也反映了特征间的相关性。图像中每个特征的BER因此,Gram矩阵可以衡量整个图像的风格。 Gram矩阵min maxLadv,1=E[logD1(I二进制)]+(一)没有纹理的字符图像表示字体样式。G1D1E[log(1−D1(G1(Ibinary_masked,M)]但传统的gram矩阵计算引入了额外的vgg网络,增加了计算量和额外的然而,对抗性损失训练的形状恢复网络只能保证图像的整体相似性,细节的准确性较差。为了提高恢复字符的准确性,我们认为应该应用像素级特征比较。以前的研究通常使用知觉损失(约翰逊等人。,2016)以优化高维特征差异。然而,使用额外的VGG网络会导致计算和内存消耗增加。同时,这种架构只能更新网络的生成器,而不能优化网络。为了解决上述问题,我们提出了一个对抗性的特征损失(AFL),这是灵感来自于基于能量的GAN(Zhao et al. ,2016年)。AFL提取每层空间,并且只更新生成器。借鉴AFL的思想,重新设计了损失函数。通过使用鉴别器来提取用于计算的特征,这可以减少额外的计算并且可以更新生成器和鉴别器。由于输出字符图像的大部分区域与原始字符相同,因此直接计算整个图像的手写风格会淡化修复区域中的风格差异的影响我们选择计算只有受损区域。给定来自大小为Cj×Wj×Hj的字符串的特征图,字体样式损失被定义为:Lfont=Ej(Gφ (MIbinary_pred)−Gφ (MIbinary) ),( 5)以计算特征损失,避免了其中Gφ是由激活的Cj×CjGram矩阵添加额外的预训练网络。与感知损失不同,AFL由两部分组成:发生器损失映射φJJ. M表示原始图像的损伤矩阵以及可交替地训练和更新生成器G1和RSD1的RSD1。这可以提高故障诊断仪的识别能力,最终提高发电机的修复精度。AF表示总体对抗性特征损失。目标函数定义为公式:nLAF,G1=piIbinary,Ibinary_pred(2)i=1和n(1表示损坏区域,0表示有效区域)通过优化这些损失,修复的字符可以以类似于原始字符的风格书写3.4. 形状恢复网络网络如图所示。 3,它由发电机G1和CRD1组成。结合以上对抗性损失广告v,1、对抗性特征损失AF和字体风格损失font,整个网络的目标函数为公式Eq.(六)、在训练期间,生成器G1和CXD1被LAF,D1=Σ(max(0,mi-pi(Ib,Ibinary_pred),(3)交替地更新,并且训练继续,直到辨别器难以将所生成的图像与真实图像区分开。在训练期间,我们使用光谱归一化(Miyato其中i是卷积的第i个卷积层,Di是卷积的第i个激活函数D1。Ni是第i个激活层中的元素数量,mi是正裕度。pi的详细定义如下:pi(Ibinary , Ibinary_pred)=NDi(Ibinary)−Di(Ibinary_pred )( 四)等人,2018)来抑制参数和梯度值的突变,并且权重为λ110、λ26和λ320000。Ltotal1=λ1Ladv,1+λ2LAF+λ3Lfont(6)PG1最小化损失以减少生成图像与真实图像之间的高维特征的差异。对于图像重建,如果pi mi<,则需要对图像重建中的相应网络层进行优化,以确保生成的图像与真实图像之间的差异。当pi>mi时,这意味着所生成的图像已经可以与真实图像区分开。此时,不需要对其进行惩罚,通过交替更新,网络不断提高字符串为了使修复后的人物更加逼真,我们还通过纹理恢复网络恢复受损的纹理细节。让我们讨论一下我们需要的目标函数。首先,我们将没有纹理的完整字符图像定义为:(1个 月)我binary_predM.纹理恢复网络使用I comp_binary和I掩蔽的受损图像Igt(1M) M作为输入。网络的生成器根据图像I中的信息进行纹理细节重构,最终输出完整的修复图像:Ipred=G 2(Icomp_binary,Imasked)。i=1B. Su,X.Liu,W.Gao等人视觉信息学6(2022)2630(七)B. Su,X.Liu,W.Gao等人视觉信息学6(2022)2631[()]gtcomp_binary(8)L我predJ×××φi我gt-φiIpred∥1J∑⏐⏐J我们在Yi和Qing数据集上评估我们的模型,并显示图五、Q i n g 数 据 集 上 的定性比较示 例 。为了保证这个网络达到预期的效果,我们使用对抗性损失,L1损失,感知损失和纹理风格损失的联合训练。纹理恢复网络的对抗性损失如下:Ladv,2=E(I,I)logD 2 Igt,Icomp_binary+EIcomp_binary[log(1−D 2(Ipred,Icomp_binary))].L1损失为:nLl1=我我−Igt1(9)i=1感知损失利用预训练网络提取特征图来计算修复图像的高维特征与真实图像之间的差距,并通过优化此损失函数来减小内容差距感知损失定义如下:(∑n (一(()()i=1训练图4中的形状恢复网络,损失总数为1。 为了保证机器人的识别能力,D1,更新两次,然后生成器在前500次训练迭代中更新一次。在那之后,D1和G1将交替更新10个epoch。然后,移除BRD1,并且将形状恢复网络中的生成器G1连接到纹理恢复网络中的生成器G2以进行端到端训练。在训练期间,G1、G2和D1被更新直到训练结束。4. 实验4.1. 数据集Yi数据集:Yi数据集是手写数据集。这些图像是从一些学生单独写的1200个字符的样本中获得的。数据包括28714个彝字样本。图像大小为256× 256。图像为RGB其中φi是预训练的第i层的激活图,VGG网络。 Ni是第i个动作中元素的个数,vation层。此外,纹理修复网络还需要纹理风格损失,以优化受损区域。其定义如下:Lstyle=Ej[<$Gφ(Igt)−Gφ(Ipred)<$1],( 11)印刷的汉字。将样本从清代古籍图像。数据包括44078个字符样本。图像大小为256 256.图像为RGB格式。训练集和测试集的比例为4:1。4.2. 与其他修复方法的其中Gφ是C j由活化构造的Cj Gram矩阵映射φj。整个纹理修复网络的目标函数(图4)是:L 共 计 2=λ 4 Ladv , 2 +λ 5 Lperceptual+λ 6 Lstyle + λ 7 Ll 1 ,( 12)其中λ4= 0. 2,λ5= 0。1,λ6= 250,λ7= 1。3.6. 培训字符复原模型是用pytorch实现的。两个网络的输入图像大小为256256和batch是8。该模型使用Adam(Da,2014)优化器,生成器和鉴别器的学习率是10−4。我们首先L感知=ENi、(十)格式,训练集和测试集的比例为4:1。Qing数据集:Qing数据集是一个图像集合,B. Su,X.Liu,W.Gao等人视觉信息学6(2022)2632它的性能优于目前最先进的技术,无论是质量还是质量。我们在数据集Qing和YI上重新训练了所有方法。定性分析:如图。 5和图 6,我们比较了我们的方法与Pix2Pix(Zhu et al. ,2017),Gated Conv(Yu et al. ,2019)和EdgeConnect(Nazeri et al. ,2019)在上述两个数据集上通过使用模拟的破字符作为输入。由于彝文字的结构比较简单,所有的方法都能完成大部分的结构恢复,而我们的方法的优势并不明显。然而,在Qing数据集上,几种图像方法可以在一定程度上修复受损的字符结构,但在细节上存在很多错误。本文提出的方法可以修复大多数B. Su,X.Liu,W.Gao等人视觉信息学6(2022)2633图六、数 据 集 Y i 上 的定性比较示 例 。表1Qing和Yi数据集上的定量结果。掩模代表整个图像中受损区域的比例。中的数据该表表示每种方法的修复结果数据越高越好青毅口罩Pix2Pix门控边缘我们Pix2Pix门控转换边缘我们Conv连接连接10%-20%28.4828.5228.9631.6528.2227.8131.6532.77峰值信噪比 20%-30%25.8725.5725.1227.9325.7024.6127.9329.1230%-40%21.7723.6421.4624.4123.3922.6024.4126.9340%-50%18.7422.0121.9221.9021.6921.0421.6923.9410%-20%0.9500.9620.9670.9730.9740.9700.9830.985SSIM 20%-30%0.9340.9360.9260.9460.9590.9500.9700.97330%-40%0.8780.8900.8630.8950.9380.9290.9540.96040%-50%0.8060.8820.8010.8640.9120.9080.9340.944并确保正确的笔画形状。我们推测,网络获得了更好的修复能力,我们提出的目标函数。定量分析:目前,没有统一的衡量标准来评估结果。 我们基于两个当前主流的图像指标进行定量比较:SSIM(Wanget al. ,2004)和PSNR。为了证明有效性,所提出的方法,我们将其与现有的图像方法Pix2Pix(Zhu et al. ,2017),Gated Conv(Yuet al. ,2019)和Edge Connect(Nazeri et al. ,2019)在数据集Qing和Yi上。在两个数据集上,训练集与测试集的比例为4:1。实验结果如表1和图2所示。 7,其中SSIM和PSNR被用作实验结果的度量。实验结果表明,本文提出的方法在SSIM和PSNR方面优于其他方法,特别是在两个数据集上的SSIM指数分别提高了8.0%和6.7%从表中的数据中,我们可以发现,我们提出的方法得到更好的结果。4.3. 选择纹理清洁方法为了减少纹理对结果精度的影响,我们在形状恢复之前消除了字符的纹理。在本实验中,我们使用PSNR和SSIM作为度量标准,测试了三种处理方法对结果的影响。结果示于表2中。通过对结果的比较,找到二值图像作为形状表2不同纹理去除方法对结果的影响。两个数据集的数值比较。 越高越好青衣口罩灰色边缘二进制(我们的)灰色边缘二进制(我们的)10%-20%31.5231.4431.6531.5631.6532.77峰值信噪比 20%-30%27.6627.5027.9329.0129.0329.1230%-40%24.1124.0224.4126.4526.1126.9340%-50%21.620.9221.7023.8523.2123.9410%-20%0.9720.9690.9730.9800.9810.985SSIM 20%-30%0.9440.9400.9460.9690.9600.97330%-40%0.8890.8820.8950.9540.9520.96040%-50%0.8720.8550.8640.9400.9350.944恢复网络在PSNR和SSIM方面具有更好的性能因此,该方法选择二值化作为去除纹理的方法。4.4. 形状恢复网络目标函数的选择我们现在将注意力转向这项工作的关键假设:选择适当的目标函数来优化生成的字符和原始字符之间的我们探讨了网络上不同目标函数的结果在本文中,我们选择表3中的不同损失函数在Yi和Qing数据集上进行实验结果显示在B. Su,X.Liu,W.Gao等人视觉信息学6(2022)2634图7.第一次会议。不同大小的掩模对SSIM和PSNR的影响。表3. (1)是基础模型,它只使用对抗性损失来确认模型用记忆中找到的相似区域填充缺失区域。通过使用L1损失和对抗损失的组合,可以显著提高网络的推理能力(2),但某些形状恢复仍然会出错。使用我们提出的对抗损失+对抗特征损失(3),我们可以得到更准确的推理结果。只是增加了克损,对网络的改善效果很小。最后在模型中加入字体风格损失,使修复后的图像风格更加一致。4.5. 探讨受损面积分布字符内容在图像中的分布是不均匀的我们探讨了破坏区域的分布对结果的影响。我们在每个字符图像的左上、右上、左下、右下和中心区域生成几乎相同的损坏孔洞,将其发送到模型以获得修复结果。我们计算结果与原始字符图像之间的SSIM和PSNR(表4)。结合数值统计和直观观察,可以发现该模型对表3不同损失函数对结果的影响越高越好不同损失SSIMPSNR(1)对抗性损失0.88620.52(2)对抗损失+L1损失0.9426.31(3)对抗性损失+感知损失0.94726.66(4)对抗性损失+对抗性特征损失0.95728.52(5)对抗性损失+对抗性特征损失+0.95628.58克损失(6)对抗性损失+对抗性特征损失+0.96328.99字体样式丢失(我们的)字符,其损坏区域显示在左上区域。最坏的结果是损伤区域出现在中心。原因可能是字符图像的左上部分损伤中心区域损失的信息最多其他三个位置的特征几乎相同,恢复结果的指标基本相同。B. Su,X.Liu,W.Gao等人视觉信息学6(2022)2635表4图8.第八条。 第一行是原始图像,第二行是恢复图像。竞合利益在同一幅图像中,研究了损伤区域集中方向对PSNR和SSIM的影响。位置左上右上左下右下中心SSIM0.9670.9630.9630.9580.939PSNR30.2129.5229.4328.9227.364.6. 一些真实的案例通过观察,我们认为古籍的损坏主要有破损、字迹模糊、污损等。我们已经测试了一些案例,并取得了良好的恢复效果图。8 .第八条。但在一些人物比较破碎的书中,效果并不理想。5. 结论我们提出了一种方法来解耦的字符恢复过程。该方法包括笔划形状恢复和纹理细节恢复。解耦过程解决了纹理对修复结果精度的影响。此外,我们提出了对抗性特征损失(AFL)来约束高维特征,它可以取代只更新生成器的感知损失。由于对抗性特征损失(AFL)的优良同时,我们提出了字体风格损失,这约束了书法风格的一致性的字符。实验结果表明,该方法具有较好的视觉效果和较高的SSIM和PSNR的数据分析。然而,当受损面积较大时,我们提出的方法不能保证修复字符的正确笔画形状。本文提出的方法有待改进。同时,我们只使用二值化来完成纹理去除模块,还需要探索复杂场景下的纹理去除方法。伦理批准本研究不包含任何作者对人类或动物受试者进行的任何研究CRediT作者贡献声明苏本鹏:概念化,方法论,软件,写作-初稿. 刘旭兴:写作-评论。高伟泽:可视化,调查。叶阳:观想,调查。陈山雄:撰写作者声明,他们没有已知的竞争性财务利益或个人关系,可能会影响本文报告的工作致谢本研究得到了国家社科基金19BYY171、中央高校基础研究基金XDJK 2013C117、博士研究生学位论文等项目的资助。西南大学基金编号20130553,部分由中国博士后科学基金2015 M580765资助,部分由重庆市博士后科学基金Xm 2016041资助,重庆市自然科学基金(cstc 2019 jcyj-msxmX 0130),重庆市科技教育研究项目(KJQN201801901)。此外,我还要特别感谢彭群生教授,感谢他与我的密切合作和耐心支持。引用Ballester,C.,Bertalmio,M.,Caselles,V. Sapiro,G.,Verdera,J.,2001.矢量场和灰度级联合插值填充。IEEE传输图像处理。10(8),1200-1211。陈淑仪,熊,H.,Zhu,S.,2020.一种用双义干复原古彝文字的方法。自动化学报2020-05-25《中国科学》24(1),1-十点十分。好吧,K., 2014. 随机优化的一种方法。 arXiv预印本arXiv:1412.6980。Fan,Q.,张,L.,2018.一种新的基于样本的图像修复补丁匹配算法。多媒体工具应用77(9),10807Iizuka,S.,Simo-Serra,E.,石川,H.,2017.全局和局部一致的映像完成。ACMTrans.Graph. (ToG)36(4),1约翰逊,J.,Alahi,A.,Fei-Fei,L.,2016.实时风格转换和超分辨率的感知损失。参加:欧洲计算机视觉会议。施普林格,pp. 694-711Kawai,N.,佐藤,T.,Yokoya,N.,2015.考虑背景几何形状的图像修补降低了真实感。IEEE Trans. Vis. Comput. Graphics 22(3),1236-1247.莱迪格角,泰斯湖,Huszár,F.,卡瓦列罗,J.,坎宁安,A.,Acosta,A.,Aitken,A.,Tejani,A.,Totz,J.,王志,例如,2017年a。使用生成对抗网络的照片级真实感单幅图像超分辨率。IEEE计算机视觉与模式识别会议论文集。pp. 4681-4690。莱迪格角,泰斯湖,Huszár,F.,卡瓦列罗,J.,坎宁安,A.,Acosta,A.,Aitken,A.,Tejani,A.,Totz,J.,王志,例如,2017年b月。使用生成对抗网络的照片级真实感单幅图像超分辨率。IEEE计算机视觉与模式识别会议论文集。pp. 4681-4690。Li,H.,罗,W.,黄,J.,2017.基于扩散的数字图像修复定位。IEEE Trans.INF. 法医安全12(12),3050B. Su,X.Liu,W.Gao等人视觉信息学6(2022)2636李杰,王,N.,张,L.,杜,B.,陶,D.,2020.图像修复中的递归特征推理。在:IEEE/CVF计算机视觉和模式识别会议的论文集。pp. 7760-7768刘杰,杨,S.,Fang,Y.,中国科学院,郭志,2018.基于单应变换的结构引导图像修复。IEEE Trans. Multimed. 20(12),3252-3265。宫城,T.,片冈,T.,Koyama,M.,吉田,Y.,2018.生成对抗网络的谱归一化。arXiv预印本arXiv:1802.05957。Nazeri , K. , Ng , E. , 约 瑟 夫 , T. , 库 雷 希 , F.Z. , 易 卜 拉 欣 , M. , 2019.Edgeconclusion:使用对抗边缘学习的生成图像修复。arXiv预印本arXiv:1901.00212。Pathak,D.,Krahenbuhl,P.,多纳休,J.,Darrell,T.,埃夫罗斯,匿名律师,2016.上下文编码器:通过图像修复进行特征学习。IEEE计算机视觉与模式识别会议论文集。pp. 2536-2544Ružić,T., Pižurica,A., 2014. 基于马尔可夫随机场模型的上下文感知图像修补。IEEE传输图像处理。24(1),444-456。Sajjadi,M.S.,Scholkopf,B.,赫希,M.,2017年a。增强网:通过自动纹理合成实现单张图像的超分辨率.在:IEEE计算机视觉国际会议论文集。pp. 4491-4500Sajjadi,M.S.,Scholkopf,B.,赫希,M.,2017年b月。增强网:通过自动纹理合成实现单张图像的超分辨率.在:IEEE计算机视觉国际会议论文集。pp. 4491-4500Shaham,T.R.,Dekel,T.,Michaeli,T.,2019. Singan:从单个自然图像学习生成模型。IEEE/CVF计算机视觉国际会议论文集。pp. 4570-4580。瓦斯瓦尼,A.,沙泽尔,N.,北帕尔马,乌斯科里特,J.,琼斯湖,加-地戈麦斯,A.N.,凯泽,马萨诸塞州,波洛苏欣岛2017.你需要的只是关注。在:神经信息处理系统的进展。pp. 5998-6008王志,Bovik,A.C.,谢赫,H. R.,Simoncelli,E.P.,2004.图像质量评价:从误差可见性到结构相似性。IEEE传输图像处理。13(4),600-612。杨,C.,卢,X.,林芝,Shechtman,E.,Wang,O.,Li,H.,2017.基于多尺度神经块合成的高分辨率图像修复。 IEEE计算机视觉与模式识别会议论文集。pp.6721 -6729余,J.,林芝,杨杰,沈,X.,卢,X.,Huang,T.S.,2018.具有上下文注意的生成式图像修复。IEEE计算机视觉与模式识别会议论文集。pp. 5505-5514余,J.,林芝,杨杰,沈,X.,卢,X.,Huang,T.S.,2019.自由形式图像修补与门控卷积。IEEE/CVF计算机视觉国际会议论文集。pp. 4471-4480张洪,古德费洛岛,澳-地Metaxas,D.,Odena,A.,2019.自我注意生成对抗网络。参加:国际机器学习会议。PMLR,pp. 7354-7363。赵,J, Mathieu,M.,Y.莱昆, 2016.基于能量的生成对抗网络。arXiv预印本arXiv:1609.03126。朱,J. -是的,帕克,T.,伊索拉山口,埃夫罗斯,匿名律师,2017.使用周期一致性对抗网络的非成对图像到图像转换。在:IEEE计算机视觉国际会议论文集。pp.2223-2232
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功