没有合适的资源?快使用搜索试试~ 我知道了~
无监督图像复原的学习不变表示
14483无监督图像复原的学习不变表示Wenchao Du,Hu Chen†,Hongyu Yang四川大学计算机学院,成都610065Wenchaodu. gmail.com,huchen@scu.edu.cn,yanghongyu@scu.edu.cn摘要最近,跨域转移已被应用于无监督图像恢复任务。然而,直接应用现有的框架会导致翻译图像的域转移问题,由于缺乏有效的监督。相反,我们提出了一种无监督的学习方法,明确地从噪声数据中学习不变表示,并重建清晰的观察。 为此,我们将离散解纠缠表示和对抗域自适应引入到一般域转换框架中,并辅以额外的自监督模块,包括背景和语义一致性约束,在双域约束(如特征域和图像域)下学习鲁棒表示。仿真和实际去噪实验结果表明,该方法与其他有监督和无监督方法相比,具有更快、更稳定的收敛速度.代码已发布。1. 介绍图像恢复试图从被破坏的观测值中重建干净的信号,这是一个不适定的逆问题。通过适应不同类型的腐败分布,相同的理论模型适用于图像去噪、超分辨率和去模糊等问题。最近,深度神经网络(DNN)和生成对抗网络(GAN)[10] 在各种低水平的视觉任务中表现出了卓越的表现尽管如此,这些方法中的大多数都需要针对特定任务的成对训练数据,这限制了它们在现实世界多媒体应用中的通用性、可扩展性和实用性。此外,强监管可能会受到过度拟合训练和对真实图像腐败类型的泛化能力较低的最近,由于在风格转换、属性编辑和图像翻译方面取得的巨大进展[9,18,20,21,40],基于域转换的无监督学习方法吸引了很多关注,例如,CycleGAN(a) 输入(b)CycleGAN(c)UNIT(d)图1:高斯噪声的典型结果。该方法在去噪和纹理保持方面优于其他的域转移方法。[40][21][22][23] [24][25]虽然这些方法已经扩展到特定的恢复任务,但由于丢失更精细的细节或不一致的背景,它们无法重建高质量的图像,如图所示。1.与基于DNN的监督模型不同,DNN旨在学习噪声和干净图像之间的强大映射由于以下原因,直接应用现有的域转移方法不适合于广义图像逆问题:• 领域界限模糊。图像翻译的目的是从具有明确领域特征的非成对数据中学习抽象的共享表示,如马到斑马,白天到黑夜等。相反,变化的噪声水平和复杂的背景模糊域边界之间的不成对的输入。• 弱代表。无监督域自适应方法通过共享权重编码器和显式目标域自适应器从不成对数据中提取高级表示对于含噪较弱的信号,平移后的图像容易出现区域偏移问题,导致重建质量下降。• 泛化能力差。图像翻译是从一对一的图像中学习局部映射,难以捕捉广义的语义和纹理表示。这也加剧了GAN的不稳定性。为了解决这些问题,受图像稀疏表示[24]和域自适应[7,8]的启发,我们14484尝试通过域自适应从未配对的样本中学习不变表示,并重建干净的图像,而不是依赖于纯粹的无监督域转移。与一般的图像转换方法[18,21,40]不同,我们的目标是学习无噪声的鲁棒中间表示(称为不变表示)并重建干净的观察结果。具体来说,为了实现这一目标,我们通过分解学习分解受损图像的内容和噪声表示;然后,利用表示法将特征对准到干净域的预期分布。此外,额外的自监督模块,包括背景和语义一致性约束,用于监督表示学习从图像域进一步。简而言之,该文件的主要贡献可归纳如下:1)提出了一种基于数据驱动的无监督表示学习图像恢复方法,该方法易于扩展到其他低层视觉任务,如超分辨率和去模糊。2)通过双域约束的非纠缠深度表示,即,特征和图像域。额外的自我监督模块,包括语义和背景一致性模块,进一步提高了表示的鲁棒性。3)建立了一个基于跨域迁移的无监督图像复原框架,具有更有效的训练和更快的收敛速度。据我们所知,这是第一种无监督表示学习方法,它通过端到端训练实现了处理合成和真实噪声去除的竞争结果。2. 相关工作2.1. 单个图像恢复传统方法。经典的方法,包括全变分[29,34],BM3D[5],非局部均值[2]和字典学习[3,12],在一般的图像恢复任务上取得了良好的性能,如图像去噪,超分辨率和去模糊。此外,考虑到图像恢复通常是一个不适定问题,一些基于正则化的方法也被证明是有效的[11,42]。深度神经网络依靠强大的计算机资源,数据驱动的DNN方法在过去几年中取得了比传统方法更好的Vincent等人[35]提出了用于图像恢复的堆叠去噪Xie等人[36]结合稀疏编码和预训练的DNN,用于图像去噪和修补。Mao等人[26]建议RedNet使用对称跳过连接来消除噪声和超分辨率。Zhang等人[39]介绍了残差学习的高斯噪声去除。一般来说,基于DNN的方法可以通过有效的监督训练实现更好的合成噪声去除效果,但它不适合实际应用。选项。2.2. 用于IR的无监督学习从嘈杂的观察中学习。无监督IR的一个有趣的方向是直接从噪声观测中恢复干净的信号。Dmitry等人[32]提出了一种用于红外图像的深度图像先验(DIP)算法,该算法需要合适的网络,并中断了基于低层统计先验的训练过程。对于不同的样本,这通常是不可预测 的 。 通 过 零 均 值 噪 声 分 布 先 验 , Noise2Noise(N2N)[19]直接学习具有独立噪声采样的两个图像之间的重建。这不适合于现实世界中的噪声去除,例如,医学图像去噪为了缓解这个问题,Noise2Void[17]通过学习损坏图像的盲点网络来预测周围的像素。与Noise2Self[1]类似,该方法降低了训练效率,但也降低了去噪性能。映像域传输。另一个方向是通过域转移来解决图像恢复问题,即学习从一个域到另一个域的一对一映射,输出图像位于干净图像的流形上。以前的作品,例如,CycleGAN[40],DualGAN[37]和Bicycle- GAN[41]在图像翻译方面表现出了很大的能力。扩展作品,包括CouplesGAN[22],UNIT[21]和DRIT[18],学习用于不同图像翻译的共享潜在表示一路上,袁等人。[38]提出了一种嵌套的CycleGAN算法来解决无监督图像超分辨率问题。ExpandingDRIT,Luet al. [23]将图像内容域和模糊域解耦以解决图像去模糊,称为DRNet。然而,这些方法的目标是学习更强的域生成器,它们需要明显的域边界和复杂的网络结构。3. 该方法我们的目标是从噪声输入中学习抽象的中间在某种程度上,无监督IR可以被视为一个特定的域转移问题,即,从噪声域到干净域。因此,该方法被注入到通用域转移架构中,如图1所示。二、在监督域转移中,我们给出从联合分布PX,Y(x,y)中提取的样本(x,y),其中X和Y是两个图像域。对于无监督域转换,样本(x,y)从边缘分布PX(x)和PY(y)中提取。为了从边缘样本中推断联合分布,假设在共享潜在空间Z中存在共享潜在代码Z,使得我们可以从该代码恢复两个图像。给定来自关节的样本(x,y)14485XXXX(a)(b)第(1)款图2:方法概述。(a)潜在空间假设。所提出的方法旨在从输入中学习不变表示,并通过对抗域自适应来对齐它们。(b)我们的方法被注入到一般的域转移框架。引入额外的自监督模块来学习更强大的表示。分布,这个过程是由解纠缠表示。 对于噪声样本x,额外噪声编码器EN 用于模拟不同的噪声z=EX(x)=EY(y)(1)水平和类型。 自我重建的公式如下:x=GX(zX,zN),其中zX=EX(x)且zN=EN(x)。X x Xx=GX(z),y=GY(z)(2)关键的一步是如何实现这种共享潜在空间的假设。为此,一种有效的策略是通过共享权重编码器共享高级表示,该编码器从统一分布中采样特征然而,潜在表征仅包含硒,假设潜码zX和zY服从相同的分布,在共享空间{zX,zY}∈ Z的条件下,与图像平移类似,无监督图像恢复可以被分解为分为两个阶段:前向平移和后向重构。前向交叉翻译。 我们首先从(x,y)和额外的噪声码z N中提取表示{zX,zY}。mantic意义,这导致域转移恢复图像,例如,模糊的细节和不一致的背景。因此,我们试图从输入中学习包含更丰富的纹理和语义特征的更广义的表示,即,不变表示为了实现这一点,我们的方法中引入了基于离散表示学习和自监督约束模块的对抗域自适应。详细信息见各小节。3.1. 离散表示学习离散表示的目标是从输入计算潜在代码z,其中z包含尽可能多的纹理和语义信息。为此,我们使用两个恢复和退化可表示为x<$X→Y=GY(zX)(3)y<$Y→X=GX(zY<$zN)(4)其中x<$X→Y表示回收的干净样品,y<$Y→X表示退化的噪声样本。 代表频道-明智的串联操作。 GX和GY被视为特定域生成器。反向交叉重建。 在执行第一次平移之后,可以通过交换输入x=X→Y和y=Y→X来实现重构,即:x=GX(EY(x<$X→Y)<$EN(y<$Y→X))(5)自动编码器到模型{EX,GX}和{EY,GY}分离,非常地 给定任意不成对样本(x,y),其中x∈ Xy=GY(EX(y=Y→X))(6)和y∈ Y分别表示噪声和干净样本不同的域,方程。1重新表示为zX=EX(x)和zY=EY14486X(y)。此外,IR可以表示为FX→Y(x)=GY(zX)。然而,考虑到噪音总是其中,x和y表示重构的输入。为了强制执行该约束,我们为X和Y域添加跨周期一致性损失LCCLCC(GX,GY,EX,EY,EN)=附着在高频信号上,直接重建清晰的图像是困难的,由于不同的噪音水平和类型,这需要强大的域生成器和disc。X X[X<$GX(EY(x<$X→Y)<$EN(y<$Y→X))−x<$1(七)LCC(GX,GY,EX,EY,EN)=罪犯因此,我们引入了解纠缠的rep-Y我们的建筑中。X[Y<$GY(EX(y<$Y→X)−y<$1(八)EE14487Adv为了提高表示的鲁棒性,引入了自监督模块,包括背景一致性模块(Background Consistency Module,简称SVM ) 和 语 义 一 致 性 模 块 ( Semantic ConsistencyModule,简称SCM),以提供更合理、更可靠的监督。翻译的目的是保持翻译的图像和输入之间的背景一致性。类似的策略已应用于自我监督图像重建任务[14,28]。这些方法通过用模糊算子平滑输入和输出图像来使用梯度误差来约束重构图像, 高斯模糊核引导,引导。与之不同的是,该算法直接使用L1损失代替梯度信息来恢复图像错误损失在我们的模块中,如图所示3,这是简单的,但有效地保持背景的一致性,同时恢复精细的纹理在我们的实验中。具体地,多尺度高斯模糊算子用于分别获得多尺度特征。因此,背景一致性LBC损失可表述为:∑LBC=σ=5、9、 15λσ<$Bσ(χ)−Bσ(χ<$)<$1(10)图 3 : 后 台 一 致 性 模 块 ( Background ConsistencyModule,简写为CIM)。该算法分层使用不同高斯模糊等级下的L1对抗域适应。另一个因素是如何将潜在表示zX和zY嵌入共享空间。受无监督域自适应的启发,我们通过对抗学习而不是共享权重编码器来实现它。我们的目标是促进表示输入服从类似的分布,同时保留更丰富的纹理和语义信息的输入。因此,在我们的体系结构中使用了一种表示法R我们表示其中Bσ(·)表示具有模糊核σ的Gaussian-Blur算子,λ σ是用于平衡不同Gaussian-Blur水平处的误差的超参数。 χ和χ2表示原始输入和转换后的输出,即,{x,x<$X→Y},{y,y→Y→X}。 基于图像去噪的实验尝试,我们将λσ设置为{0. 25,0。五一0}对于σ={5,9,15}分别此外,受感知损失[15]的启发,来自预训练模型的更深层的特征仅包含语义含义,这些语义含义是无噪声的或几乎没有噪声。因此,与一般的特征丢失不同,其目的是通过浅层特征之间的相似性来恢复更精细的图像纹理细节,我们只从损坏的,恢复的图像保持一致性,称为语义一致性损失LSC。它可以被表述为这个特征是对抗性损失LR,L=φ(χ)−φ(χ)2(十一)AdvLR(EX,EY,DR)=SC l l2AdvEX[客户端]1logDR(zX)+1log(1−DR(zX))+ 2 2[客户端]EY1logDR(zY)+1log(1−DR(zY))(九)其中Φ(·)表示来自预处理的第i层的特征训练模型在我们的实验中,我们使用conv 5 -1层在ImageNet上的VGG-19 [31]预训练网络。3.3.联合优化2 2除了拟议的跨周期一致性损失外,3.2. 自我监督约束由于翻译后的图像缺乏有效的监督信号,仅依靠特征域鉴别约束生成的图像不可避免地会出现域偏移问题。为了在学习的同时加速收敛sentation对抗损失和自我监督损失,我们还使用其他损失函数在我们的联合优化。目标域对抗性损失。我们施加域对抗损失L域,其中DX和DY试图区分来自每个域的生成图像的真实性。对于噪声域,我们定义了对抗损失14488XadvXXAdvXX副词Y图4:BSD-68上高斯噪声的示例结果。放大以获得更好的可视化效果。方法BM3D[5][26]第二十六话DnCNN[39]N2N[19]中文(简体)CycleGAN[40]UNIT[21]DRNet[23]我们PSNR(平均值±标准差)σ =2530.18±2.0730.19±2.0730.70±2.0430.21±2.1926.48±3.1419.08±2.2720.21±1.4521.06±2.2329.02±1.93σ =3528.09±2.1728.27±2.3028.75±2.1028.28±2.2926.06±2.7816.77±1.6318.96±1.2919.10±1.7027.58±1.98σ =5025.87±2.3125.22±2.8426.54±2.1525.85±2.5824.80±2.2516.68±2.3517.10±1.0816.78±1.2224.69±1.59SSIM(平均值±标准差)σ =250.921±0.030.918±0.030.931±0.020.919±0.030.820±0.090.808±0.060.709±0.080.626±0.090.917±0.02σ =350.883±0.040.885±0.040.901±0.030.886±0.040.817±0.070.731±0.070.599±0.100.505±0.090.887±0.03σ =500.830±0.060.827±0.060.857±0.050.832±0.060.786±0.070.696±0.060.459±0.110.374±0.080.787±0.04表1:BSD-68数据集上高斯噪声降低的定量结果advas如下所示minMax=λRLR+LX=ExP(x)[logDX(x)]+EX,EN,EY,GX,GYDX,DY,DRAdvEyPY(y)[log(1−DX(GX(EY(y)、EN(x)](12)λadvLdomain+λCCLCC+λrecLRec+(十四)xPX(x)λbcLBC+λsc LSC+λKL LKL类似地,我们将干净图像域的对抗性损失其中超参数λη控制每个项的重要性。复原:学习后,我们只保留十字架LY=EyP(y)[logDY(y)]+Ex<$PX(x)[log(1 −DY(GY(EX(x)](十三)编码器-生成器网络{EX,GY},EX从损坏的样本中提取X→Y自我重建的损失。除了跨周期重构外,我们还应用了自重构失去LRec以促进培训。 这一过程代表着--x,并且GY在干净图像x上记录x<$X→Y=GY(EX(x)).4. 实验从zX中,设x=GX(EX(x)<$EN(x))和y=GY(EY(y))。KL损失。为了对噪声编码器分支进行建L14489q(z)模,我们添加了KL发散损失来正则化分布的噪声码zN=EN(x),以接近nor-N。在本节中,我们首先给出我们的方法用于经典图像去噪。传统的评价方法,如峰值信噪比(PSNR)和结构相似性(SSIM),在实验中被用来评价XNX项。合成和真实噪声去除的详细结果正态分布p(zX(0,1)),其中DKL=-log(p(z))dz。我们的方法的完整的目标函数进行了总结任务用其他现有技术的方法示出对于合成噪声去除,我们从包括加性高斯白噪声(AWGN)的14490Adv图5:Kodak数据集的示例结果。通过放大实现最佳细节可视化。方法PSNR(均值±标准差) SSIM(均值±标准差)中文(简体)二十七岁63±2。660的情况。838 ±0. 07N2N[19]28岁39 ±2。040的情况。893 ±0。03ANSC[25]三十68 ±1。810的情况。918 ±0。02[26]第二十六话28岁34 ±2。070的情况。893 ±0。03我们32.37 ±1.550.957 ±0.01表2:泊松噪声的定量结果。Poisson噪声两个著名的数据集BSD68 [27]和Kodak用于验证我们的方法在去噪和纹理恢复方面的性能最后,利用医学低剂量CT数据集的真实噪声图像对该方法的泛化能力进行了评估额外的消融研究被用来验证所提出的框架的有效性。4.1. 执行我们遵循与[21]中使用的网络架构类似的网络架构,不同之处在于我们引入了额外的噪声编码器分支并删除了共享权重编码器。Representation RNN是一个完整的卷积网络结构,它堆叠了四个具有两个步幅的卷积层所提出的框架使用Pytorch [30]实现,并在实验中使用Nvidia TITAN-V GPU。在训练过程中,我们使用Adam [16]进行优化,动量设置为0.9。学习率最初设置为0.0001,并在10K迭代器上呈指数衰减在在所有实验中,我们随机裁剪64×64个补丁,批量大小为16,用于训练。超参数设置为λR=λdomain=λsc=1,λcc=λrec=10,λbc=5,λ KL= 0。01.4.2. 合成噪声消除我们用Pascal2007中的图像训练模型[6]训练集样本随机分为两部分,不重合。在第一部分中,我们给每个样本添加不同的噪声水平,这被视为损坏集,另一个是干净集。提出的方法需要估计噪声的大小,同时消除它(盲图像去噪)。选择了一些基于监督和非监督的方法进行评估。AWGN删除。我们为每个训练样本添加随机生成的具有零均值和标准差的AWGN,范围从5到50,在BSD68上测试,σ={25,35,50}。代表性的无监督方法,包括DIP[32],Noise 2Noise(N2 N)[19],Cy-cleGAN[40]、UNIT[21]和DRNet[23],以及监督方法(例如,RedNet-30[26]和DnCNN[39])来比较图像去噪的性能。传统的BM3D也被纳入评估。对于Cy-cleGAN,UNIT和DRNet,我们使用相同的训练数据重新训练它们。来自BSD 68数据集的可视化结果在图中给出。4.虽然所有的方法都显示出了降噪的能力,但是基于域转移的无监督方法,包括CycleGAN,UNIT和DRNet,都存在明显的域转移问题,例如,不一致的亮度和不期望的伪影,导致更差的视觉感知。N2N和DIP实现了更高的PSNR和SSIM。然而,DIP丢失了精细的局部细节,并导致生成的图像过于平滑。根据零均值分布先验,14491N2 N与其他监督方法(如RedNet-30和DnCNN)实现了类似的结果。我们的方法在噪声去除和纹理保留方面表现出相当的性能。虽然PSNR略低于其他监督的方法,我们的方法实现了更好的视觉一致性与自然图像。BSD 68的定量结果见表。1.一、该方法具有较强的图像盲去噪能力。泊松噪声去除对于损坏的样本,我们从Scikit图像库[33]中随机生成噪声数据,该库通过给定样本中的唯一值的数量生成独立的泊松噪声,并在Kodak1数据集上进行测试。在我们的评估中选择了一些代表性的方法,包括DIP,N2 N,ANSC[25]和RedNet-30。综合结果见图5和表。2. DIP倾向于生成更模糊的结果。传统的ANSC方法首先将泊松噪声转换为高斯(Anscombe变换),然后应用BM 3D去除噪声,最后将变换反转,从而获得更高的PSNR和SSIM。考虑到泊松噪声产生方式的不同,已发表的RedNet-30和N2 N模型并没有达到最好的结果。我们的方法实现了最高的PSNR和SSIM。此外,可视化结果还表明,对于弱噪声信号,所提出的框架-图6:LDCT重建。显示窗口是[160,240]Hu.红色圆圈表示ROI区域。方法PSNRSSIM作品具有较好的去噪能力,恢复细节。4.3. 真实噪声消除X射线计算机断层扫描(CT)是现代临床诊断中广泛使用的重要成像方式。考虑到对患者的潜在辐射风险,降低辐射剂量会增加噪声和伪影在重建的图像中,这可能损害诊断信息。通常,X射线光子测量中的噪声可以简单地建模为泊松量子噪声和高斯电子噪声的组合然而,重建图像中的噪声更加复杂,并且不服从整个图像的任何统计分布因此,经典的基于噪声统计先验的图像后处理方法,N2N,不适用于低剂量CT(LDCT)去噪。Mayo Clinic授权的2016年NIH-AAPM-Mayo Clinic低剂量CT大挑战2的真实临床数据集用于评价LDCT图像重建算法,其中包含来自10名不同受试者的5936张512×512分辨率图像我们随机选择4000 im-年龄作为训练集,其余的作为测试集。DIP,BM3D和RedCNN[4]是RedNet的扩展版本,在我们的实验中被选择用于评估代表性结果如图所示6、BM3D介绍1http://r0k.us/graphics/kodak/2http://www.aapm.org/GrandChallenge/LowDoseCT/表3:Mayo数据集的定量结果。蜡状伪影进入重建图像。DIP无法生成精细的局部结构。RedCNN倾向于生成更平滑的图像。我们的方法在视觉质量和噪声去除之间实现了更好的平衡。表. 3给出了定量结果。4.4. 消融研究在本节中,我们进行了消融研究,以分析所提出的框架中的离散解纠缠表示和自监督模块的效果对于所提出的方法的以下三个变体,其中每个分量被单独研究,示出了高斯噪声去除的定量和定性结果:a)重新移动噪声编码器分支; b)去除表示对抗网络DR,仅通过目标域约束直接学习表示zX和zY; c)去除自监督模块的背景一致性约束,只保留语义一致性约束.代表性结果如图所示。7.与完整模型(称为(d))相比,直接从噪声图像中学习不变表示将导致生成器产生(a)的过平滑结果,这是由于特征中包含的意外噪声,这需要LDCT36.36160.9423BM3D[5]40.69410.9755RedCNN[4]41.87990.9846中文(简体)36.20470.9500我们40.58570.981114492X图7:每个变体的可视化结果(a)没有EN。(b)没有DR。(c)删除BGM(d)完整模型。变量PSNR(平均值±标准差)SSIM(平均值±标准差)(a)25. 997± 1。500828 ±0。07(b)29. 452± 1。710913 ±0。02(c)25. 220± 1。六二零817 ±0. 08(d)29.022±1.93 0.917 ± 0.02表4:BSD-68上σ=25的高斯噪声的定量结果(a)(b)第(1)款图8:100k次迭代期间的在线训练PSNR和SSIM。一个强大的域名生成器。虽然(b)在去除特征对抗模块后给出了更好的PSNR和SSIM,但是一些不期望的伪影附着在高频信号上。 由于未能为恢复的图像提供有效的自监督约束,尽管保留了语义一致性模块,但模型(c)也在生成的图像中产生域移位问题,例如,不一致的亮度和模糊的细节,导致更差的视觉感知。定量结果见表。4.第一章此外,考虑到DRNet[23]具有类似的架构,我们的结构扩展了DRIT[18],同时引入了额外的特征损失来解决图像去模糊,我们选择它作为代表性的域转移方法来比较去噪任务上算法的收敛性。图8给出了AWAN去除的收敛图,其中我们在同一训练集上从头开始训练两个模型虽然DRNet也采用了类似的解纠缠表示的思想来解决图像恢复问题,但与我们的有本质的不同由于缺乏明确的域边界,不同的噪声水平和类型导致训练期间为了学习不变表示,我们的方法给出了更快,更稳定的收敛图。5. 结论在本文中,我们提出了一种无监督学习的图像恢复方法。具体来说,我们的目标是通过分解表示和对抗域自适应来从噪声数据中学习不变表示。在有效的自我监督约束的帮助下,我们的方法可以重建具有更精细细节和更好视觉感知的更高质量的图像。对合成图像和真实图像的去噪实验表明,该方法的去噪性能与现有方法相当,并且比其他领域自适应方法具有更快、更稳定的收敛性承认这项工作得到了国家自然科学基金项目61871277的资助,部分得到了中国四川省科学技术项目2019YFH0193的资助。14493引用[1] 乔舒亚·巴特森和罗伊克·罗耶Noise2self:通过自我监督进行盲去噪。在ICML,2019。[2] 安东尼·布阿德斯、巴托梅乌·科尔和让-米歇尔·莫雷尔。一种非局部图像去噪算法。2005年IEEE计算机协会计算机视觉和模式识别会议(CVPR'05),2:60-65卷。2005年2月。[3] 普里亚姆·查特吉和佩曼·米兰法尔。基于局部学习字典的去噪。IEEE Transactions on Image Processing,18:1438[4] 胡晨、张毅、曼努迪普·卡拉、冯琳、杨晨、廖沛西、纪流舟、王戈。低剂量ct与残余编码器-解码器卷积神经网络。IEEE医学成像学报,36:2524[5] Kostadin Dabov、Alessandro Foi、Vladimir Katkovnik和Karen O.埃吉亚扎利安人稀疏三维变换域协同滤波图像去 噪 。 IEEE Transactions on Image Processing , 16 :2080[6] 放 大图 片 作 者: Mark Everingham , Luc Van Gool,Christopher K. I.约翰·威廉姆斯温恩和安德鲁·齐瑟曼。pascal视觉对象类(voc)的挑战。International Journalof Computer Vision,88:303[7] Yaroslav Ganin和Victor S. Lempitsky通过反向传播的无监督主适应。ArXiv,abs/1409.7495,2014年。[8] Yaroslav Ganin、Evgeniya Ustinova、Hana Ajakan、Pascal Germain 、 Hugo Larochelle 、 François Laviolette 、Mario Marchand和Victor S. Lempitsky神经网络的领域对抗训练。J.马赫学习. Res. ,17:59:1[9] 利昂·A Gatys,Alexander S. Ecker,and Matthias Bethge.使用卷积神经网络的图像风格转换。2016年IEEE计算机视觉和模式识别会议(CVPR),第2414-2423页[10] Ian J. Goodfellow,Jean Pouget-Abadie,Mehdi Mirza,Bing Xu,David Warde-Farley,Sherjil Ozair,Aaron C.Courville和Yoshua Bengio。生成性对抗网。在NIPS,2014。[11] 古书航、张磊、左王梦、向楚风。加权核范数最小化及其在图像去噪中的应用。2014年IEEE计算机视觉和模式识别会议,第2862-2869页[12] 古书航、左望梦、谢启、孟德宇、冯湘楚、张磊.图像超分辨率卷积稀疏编码2015年IEEE国际计算机视觉会议(ICCV),第1823-1831页[13] 何 开 明 , 孙 建 , 唐 晓 鸥 。 引 导 图 像 填 充 。 IEEETransactionsonPatternAnalysisandMachineIntelligence,35:1397[14] Xin Jin,Zhibo Chen,Jianxin Lin,Zhikai Chen,andWei Zhou.带自监督约束的单幅图像非监督去噪。2019IEEE图像处理国际,第2761-2765页[15] 贾斯汀·约翰逊,亚历山大·阿拉希,李飞飞。实时风格转换和超分辨率的感知损失。在ECCV,2016年。[16] Diederik P. Kingma和Jimmy Ba。Adam:随机最佳化的方法。CoRR,abs/1412.6980,2014。[17] Alexander Krull,Tim-Oliver Buchholz,and Florian Jug.Noise 2 void- 从 单 个 噪 声 图 像 中 学 习 去 噪 。 2019IEEE/CVF计算机视觉和模式识别会议(CVPR),第2124-2132页[18] Hsin-Ying Lee,Hung-Yu Tseng,Jia-Bin Huang,Ma-neesh Kumar Singh,and Ming-Hsuan Yang.通过解缠表征 实 现 多 样 化 的 图 像 到 图 像 的 翻 译 ArXiv ,abs/1808.00948,2018。[19] Jaakko Lehtinen 、 Jacob Munkberg 、 Jon Hasselgren 、Samuli Laine、Tero Karras、Miika Aittala和Timo Aila。Noise2noise:没有干净数据的学习图像恢复。ArXiv,abs/1803.04189,2018。[20] Ming Liu ,Yukang Ding, Min Xia ,Xiao Liu ,ErruiDing,Wangmeng Zuo,and Shilei Wen. Stgan:用于任意 图 像 属 性 编 辑 的 统 一 选 择 性 传 输 网 络 。 2019IEEE/CVF计算机视觉和模式识别会议(CVPR),第3668-3677页[21] Ming-Yu Liu,Thomas Breuel,and Jan Kautz.无监督图像到图像翻译网络。在NIPS,2017年。[22] 刘明宇和昂塞尔·图泽尔。耦合生成对抗网络。在NIPS,2016年。[23] Boyu Lu,Jun-Cheng Chen,and Rama Chellappa.通过解纠缠表示的非监督域特定去模糊。2019 IEEE/CVF计算机视觉和模式识别会议(CVPR),第10217[24] Julien Mairal,Michael Elad,and Guillermo Sapiro.用于彩色图像恢复的稀疏表示。IEEE Transactions on ImageProcessing,17:53[25] Markku Mäkitalo和Alessandro Foi。低计数泊松图像去噪中的最优反anscombe变换IEEE Transactions on ImageProcessing,20:99[26] Xiao-Jiao Mao,Chunhua Shen,Yu-Bin Yang.使用具有对称跳跃连接的非常深的卷积编码器-解码器网络的图像恢复。在NIPS,2016年。[27] David R.查尔斯·马丁福克斯,多伦·塔尔,和吉滕德拉·马利克。人类分割自然图像数据库及其在评估分割算法和测量生态统计中的应用第八届IEEE计算机视觉国际会议论文集。ICCV 2001,2:416 -423 vol.2,2001.[28] Thekke Madam Nimisha,Sunil Kumar,and A. N.拉-贾戈帕兰。无监督的类特定去模糊。在ECCV,2018。[29] Stanley Osher,Martin Burger,Donald Goldfarb,JinjunXu,and Wotao Yin.基于全变分图像复原的迭代正则化方法。多尺度建模仿真,4:460[30] Adam Paszke、Sam Gross、Soumith Chintala、GregoryChanan、Edward Yang、Zachary Devito、Zeming Lin、Alban Desmaison、Luca Antiga和Adam Lerer。pytorch中的自动差分。2017年。[31] Karen Simonyan和Andrew Zisserman用于大规模图像识别 的 非 常 深 的 卷 积 网 络 。 CoRR , abs/1409.1556 ,2014。14494[32] Dmitry Ulyanov、Andrea Vedaldi和Victor S. Lempitsky深度图像先验。2018 IEEE/CVF计算机视觉和模式识别会议,第9446-9454页[33] Stéfan van der Walt,Johannes L.放大图片作者:JoshuaD.华纳,尼尔·耶格尔,艾曼纽·古亚拉特,托尼·余。scikit-image:Python中的图像处理InPeerJ,2014.[34] 卢米尼塔A Vese和Stanley Osher图像去噪和分解与总变差最小化和存储功能。Journal of Mathematical Imagingand Vision,20:7[35] Pascal Vincent , Hugo Larochelle , Yoshua Bengio ,Pierre-Antoine Manzagol.使用去噪自动编码器提取和合成鲁棒特征。在ICML[36] Junyuan Xie,Linli Xu,and Enhong Chen.使用深度神经网络进行图像去噪和修复。NIPS,2012年。[37] 自立一、张浩、谭平、龚明伦。Dual-gan:用于图像到图像翻译的无监督双重学习。2017年IEEE计算机视觉国际会议(ICCV),第2868-2876页[38] Yuan Yuan , Siyuan Liu , Jiawei Zhang , YongbingZhang,Chao Dong,and Liang Lin.使用循环生成对抗网络的无监督图像超分辨率。2018 IEEE/CVF计算机视觉和模式识别研讨会(CVPRW),第814- 81409页[39] Kai Zhang , Wangmeng Zuo , Yunjin Chen , DeyuMeng , and Lei Zhang.Beyond a Gaussian denoiser :Residual learning of deep cnn for image denoising.IEEETransactions on Image Processing,26:3142[40] Jun-Yan Zhu,Taesung Park,Phillip Isola,and Alexei A.埃夫罗斯使用循环一致对抗网络的不成对图像到图像翻译。2017年IEEE计算机视觉国际会议(ICCV),第2242-2251页,2017年。[41] 作者:Zhu Jun-Yan,Richard Zhang,Deepak Pathak,Trevor Darrell,Alexei A. Efros,Oliver Wang,and EliShechtman. 走 向 多 模 态 图 像 到 图 像 翻 译 。 ArXiv ,abs/1711.11586,2017年。[42] 丹尼尔·佐兰和亚伊尔·韦斯。从自然图像块的学习模型2011年国际计算机视觉会议,第479-486页,2011年。
下载后可阅读完整内容,剩余1页未读,立即下载
![txt](https://img-home.csdnimg.cn/images/20210720083642.png)
![application/msword](https://img-home.csdnimg.cn/images/20210720083327.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)