没有合适的资源?快使用搜索试试~ 我知道了~
4321Noisier2Noise:学习从不成对的噪声数据中去噪Nick Moran,Dan Schmidt,Yu Zhong,PatrickCoady数字系统部,ADI公司125 Summer Street,Boston MA{nicholas.moran,daniel.schmidt,yu.zhong,patrick.coady}@ analog.com摘要我们提出了一种用于训练神经网络来执行图像去噪的方法,而无需访问干净的训练示例或访问成对的噪声训练示例。我们的方法只需要一个单一的噪声实现每个训练样本和噪声分布的统计模型,并适用于各种各样的噪声模型,包括空间结构噪声。我们的模型产生的结果是有竞争力的其他学习方法,需要更丰富的训练数据,并优于传统的非学习去噪方法。我们提出了我们的方法的推导任意加性噪声,一个改进的高斯加性噪声,和一个扩展到乘性伯努利噪声。1. 介绍卷积神经网络已被证明是许多图像处理任务的强大工具,包括去噪[13],修复[18]和域转换[5]。这种网络通常使用成对的输入和地面实况目标输出来训练,但是也存在消除对地面实况目标的需要在图像去噪任务的标准公式中,网络将噪声图像作为输入,并产生对应的干净图像的估计损失函数将该估计与真正的干净图像进行比较,提供用于更新网络权重的监督学习信号。然而,由于成像技术的限制、有限的照明或各种其他原因,存在难以或不可能收集真正干净的图像的许多领域。在这种情况下,我们希望能够训练网络来执行去噪,而无需访问干净的图像。我们提出了一种训练算法,它只需要一个单一的噪声实现的每个训练图像,没有干净的图像,和一个统计 模 型 的 噪 声 分 布 。 Our method builds on theNoise2Noise algorithm [11], which also removes therequirement of clean training targets, but图1.我们的方法(右侧)去除高斯噪声(左侧)的示例,其中σ=0。05(顶部),0. 1(中间)和0。2(底部)。σ值相对于像素强度的[0,1]标度。需要每个训练图像的两个独立的噪声实现。在高层次上,我们的方法是从我们的统计模型中生成一个合成噪声样本,将其添加到已经有噪声的图像中,并要求网络从这个双重噪声图像中预测原始噪声图像。直观地说,网络将无法区分原始噪声和附加的合成噪声,并且可以通过预测每个像素处的观测噪声的一半存在于源图像中,而另一半是合成添加的来最小化其损失。因此,它将学习输出一个介于双噪声输入和看不见的真正干净图像之间的图像。然后,我们可以通过简单的操作获得对干净图像的估计1206412065222. 相关工作多年来,神经网络在图像去噪在[16]中,作者提出了一种去噪自动编码器,该编码器将噪声图像作为输入,并经过训练以再现该图像的已知干净版本许多其他神经去噪技术都需要干净的训练目标[19]证明了神经网络通过采用残差学习来去除各种噪声分布的能力也有各种手工制作的算法来去除噪音,不依赖于学习。这些方法的优点是它们不需要任何训练语料库,但通常需要大量的专业知识来使它们适应给定的噪声分布。[2]在已知噪声分布的情况下,使用块匹配算法来执行去噪[4]和[12] 提出在更复杂的空间相关噪声分布下的去噪算法虽然存在容易获得成对的干净图像和噪声图像的许多域对于只能获得噪声图像的设置,[11]的作者提出用同一图像的第二个独立噪声实现替换干净目标他们观察到,在目标上添加他们证明,以这种方式训练的网络能够与那些用干净目标训练的网络相匹配。CycleGAN [20]算法可以学习执行去噪作为图像到图像转换的特殊情况。它需要干净和嘈杂的图像,但不需要两组之间的任何配对。Deep Image Prior [15]的作者证明,可以在没有任何训练数据的情况下执行去噪,仅使用卷积神经网络架构中固有的归纳偏差。虽然获得多个噪声实现通常比获得成对的干净和噪声实现更容易,但是仍然存在这样的场景,其中根本不可能收集完全相同的场景(噪声或干净)的多个视图。[8]和[1]都建议学习仅使用每个训练样本的单个噪声实现来执行去噪。他们通过自我监督来实现这一点:网络被训练以在给定像素的相邻像素的值的情况下预测像素的值。由于噪声在空间上是不相关的,因此网络无法预测噪声分量,从而通过逼近目标像素的真实干净值来最小化它们的损失。然而,这种自我监督方法不适合空间相关噪声;在这种设置中,这种相关性将使网络能够预测噪声的结构化分量,从而产生仍然包含该分量的输出[10]和[9]进一步改进了这些方法,它们整合了来自噪声模型的信息,以产生更高质量的重建。我们用附加噪声增强训练图像的方法类似于[6]的方法,他们提出学习一个可以迭代应用于噪声图像的网络,每次将其移动到更接近干净图像的流形。[17]也利用额外的合成噪声作为其网络输入,但建议为每个要去噪的图像训练一个新的网络。我 们 的 工 作 最 直 接 地 建 立 在 Noise2Noise ,Noise2Void 和 Noise2Self 的 方 法 上 。 与 Noise2Void 和Noise2Self一样,我们删除了配对噪声训练数据的要求我们还允许空间相关的噪声模型,这是有问题的Noise2Void和Noise2Self。另一方面,我们需要从噪声分布中采样的能力,这是上述三种方法所不具备的。本文的主要贡献如下:• 我们提出了一种方法,用于训练神经去噪器与访问只有单一的噪声实现的训练样本。• 我们的方法是适用于两个像素级i. i. d。白噪声和空间相关噪声。• 我们的方法产生的结果在质量上接近那些需要干净的训练图像或成对的噪声训练图像的方法所产生的结果。3. 方法我们首先提出了一个直观的动机,我们的方法,然后提出了一个数学的理由。3.1. 动机设A是已知的随机分布,M和N是从A独立抽取的两个随机变量。我们观察到它们的总和,Z=M+N,并被要求预测N。显然,这是不可能做到完美的,因为我们没有办法区分N和M的贡献。如果我们将支付与误差平方成正比的成本,那么我们的预测应该是什么,以使我们的预期成本最小化?众所周知,平方误差成本函数被目标的期望值最小化。 我们应该因此,我们的预测是E[N |Z],通过对称性简单地是Z。 为了理解为什么,请注意,任何N的估计值和相应的M的隐式估计值,都有一个替代方案。估计哪一个开关这两个。因为N和M都是从A独立得出的,所以N的这两个可能的估计值都是同样可能的。这两个估计值的平均值是Z。这是我们的方法的关键见解。两个身份证的总和。噪声样本,其中之一的最佳估计是其总和的一半。现在让我们考虑一个更复杂的场景,其中我们有一个未知量X,我们观察X+Z并试图预测X+N。我们争论在120662图2.我们的方法的步骤,σ = 0。1.一、顶行:原始干净图像(我们的方法看不到),单噪声实现(这是我们的训练目标),双噪声实现(这是我们网络的输入)。底行:网络的原始输出,剩余噪声的隐式估计,以及校正步骤后的最终重建。下面的部分,我们的上述见解仍然成立,即使增加了X:我们的最佳估计X + N将是X+Z。关键是,这个值是X+Z和X之间的一半。因此,我们可以使用它从X+Z估计X。在图像去噪的上下文中,这意味着我们可以通过类似的过程来恢复给定噪声图像的干净图像的估计,其中X + N是原始噪声图像,并且M是来自相同噪声分布的合成样本。3.2. Noisier2Noise我们考虑一个场景,在这个场景中,我们希望训练一个神经网络来在一个固定的已知噪声模型下执行图像去噪。 设X为自然图像的分布,让X= X。 我们无法观察到X,但可以以捕获单个噪声实现Y,X+N,其中N= A,A是已知的噪声分布。因为A是已知的,我们可以绘制一个额外的合成噪声样本MA。我们的培训程序如下。给定Y,我们创建一个更嘈杂的版本,Z,Y+M=X+N+M。然后,我们训练网络以Z作为输入,使用逐像素L2损失函数和标准随机梯度下降来预测Y。设f(·;θ)为参数化的神经网络的θ。 我们的培训过程旨在执行以下内容最小化:将是简单地从输入Z减去M,但这是不可能的。最好的可实现策略是预测E[Y |Z]。我们现在认为,有可能提取估计干净图像E[X|[2019 - 03 - 25][2019 - 03 - 01][2019 - 02 -01][2019 - 01][2019 - 02 - 01][2019 - 02][2019 - 02 -02][2019 - 02][2019 - 02][2019 - 02 - 01][2019 - 01] 01:01:00]|Z]。我们首先注意到E[Y|Z]=E[X|Z]+ E[N |Z]。(二)回想M和N是i.i.d.并且因此具有给定Z,E[M]的相同期望|Z]=E[N|Z]。由此我们得出2 E [Y |Z]= E [X|Z]+(E [X|Z]+ E [N |Z]+ E [M|Z])=E[X|Z]+ E[X + N + M |Z]=E[X|Z]+ Z。(三)换句话说,我们有E[X|Z]= 2E[Y|Z]−Z。因此,我们可以通过将网络的输出加倍并减去其输入来恢复对干净图像的估计直观地说,我们的网络学会了输出一个介于双重噪声输入和干净图像的最佳估计之间的图像。通过在从其输入到该输出的方向上采取第二步骤,我们可以生成干净图像的估计。我们注意到,在实践中,有许多看似合理的干净图像可能会产生特定的噪声实现。最小EZθ[f(Z;θ)−Y<$2](1)12067因此,E[X|Z]将不是真实干净图像的精确重建,而是这组plau的平均值。请注意,网络永远不会孤立地观察N或M。因此,虽然损失函数干净的图像。这与在具有清洁培训目标的环境中面临的相同的不确定性。120682图2显示了我们的方法在推理时的步骤我们从一个有噪声的输入图像开始,y(顶部中心),并增加额外的噪声以获得z(右上)。然后我们计算f(z;θ)以获得未校正的输出(下图左 ) 。 我 们 接 下 来 ( 隐 式 地 ) 计 算 z−f ( z;θ )(bottom cen-ter)以获得f(z;θ)中剩余的噪声的估计。从f(z;θ)中减去这个,得到最终的重建(右下)。注意,如果没有我们的校正步骤,网络的原始输出仍然有噪声。实际上,我们应该期望它具有标准差为σ2σ的噪声。高斯型A和B,其中σB= ασA。我们将使用以下引理:引理3.1. 设NA和MB,其中A和B是均值为零的高斯方程,σB= ασA。进一步令X<$X,Y,X+N和Z,X+N+M。然后E [M |Z]= α2E [N |Z]。我们首先证明E[M |Z,X]= α2E[N |Z,X]。P(N=n|Z=z,X=x)<$P(N=n)P(M=z−x−n).n2.(z − x − n)23.3. 改进Esclemp−2σ2exp−2α2σ2我们的方法的一个复杂之处在于,我们的网络被训练为将双噪声图像作为输入,因此,即使在推理过程中,我们也需要添加这种额外的噪声,Esclemp.α2n2+(z − x −n)2<$-2α2σ2(四)导致网络具有对所述网络的人为较差的视图,噪声图像 可能希望减少这种影响,并且这分布对称,有意思12(z-x).通过类似的计算,P(M|Z=z,X =向网络提供更接近单噪声的输入1+α2x)平均α2(z−x),因此E[M|Z=z,X=x]=形象我们探讨了实现这一目标的两种选择。第一种是在测试时简单地向网络提供未增强的噪声图像,希望它对输入分布的这种变化具有一定的鲁棒性。这是合理的,因为在训练过程中,网络将看到局部图像块,这些图像块碰巧具有相对较小的噪声值,这仅仅是由于偶然性。想象网络也将能够在其中所有像素具有小于正常噪声幅度的图像上操作并非不合理虽然这种方法不是一个原则性的,我们发现,它是能够产生PSNR改善的基础算法在实践中。然而,这种方法的结果的视觉质量往往较低,因为它们看起来过于平滑并且缺乏精细细节。这种方法1+αα2E[N|Z=z,X=x]。这与x无关,z,因此我们有E[M |Z]= α2E[N |Z]。要恢复E[X|从E[Y]的估计|首先,我们注意到,(1+ α2)E [Y |Z]=E[X|Z]+ E[N |Z]+ α2E[X|Z]+ α2E[N |Z]=α2E[X|Z]+(E[X|Z]+ E[N |Z]+ E[M |Z])=α2E[X|Z]+ Z。(五)因此,我们认为,(1+ α2)E[Y |Z] − Z可能非常适合于均方误差确实是重要度量的领域,但不适合于E[X|Z]=α2。(六)视觉质量至关重要。重要的是要注意,当向网络馈送未增广的输入时,我们仍然必须执行与标准方法相同的校正步骤该网络仍然倾向于产生一个输出,该输出在其输入和干净目标之间的中间,即使它的输入现在比训练过程中看到的噪音要小。第二个选择是注意,我们不需要在训练期间添加与自然噪声相同强度的噪声。例如,让我们的噪声分布A具有标准的de-σA在我们的标准方法中,我们对同步信号进行采样感 觉 噪 声 相 反 , 我 们 可 以 对 MB 进 行 采 样 , 其 中σB<σA,从而减少额外的失真这是由我们的合成噪声引起的,并为网络提供了未增强图像的更清晰视图。改变M的采样距离也会改变E[Y]的值|Z],并且因此引起我们的校正步骤的改变。正确校正的推导取决于A和B的具体选择。这里我们推导出它的零均值12069当α=1时,这简化为E[X|Z]=2E[Y|Z]-Z,这个公式就是上一节中的公式。我们注意到,α的最佳值可能取决于数据集和噪声模型,并且在没有干净的验证数据的情况下可能难以或直观地说,较小的α为网络提供了原始噪声图像的更清晰视图然而,在校正步骤中,网络的输出乘以α−2,因此随着α的减小,我们的性能对网络预测中的小误差变得更加敏感。我们发现α=0。在我们的实验中,5对于各种噪声水平都很有效。我们还发现,针对一个α值训练的网络可以快速微调以使用新值,从而快速探索候选值。3.4. 非加性噪声到目前为止,我们的讨论集中在加性噪声模型的情况下,我们推导出的训练过程和校正步骤都是特定于该领域的。我们现在12070图3.我们的方法的结果,α=0。5对三种不同幅度的高斯噪声。最左边的图像是来自柯达测试集的原始样本,三列显示了单噪声实现和我们的重建。提供了一个例子,我们的方法可以如何应用在非加性噪声模型的情况具体来说,我们分析乘性伯努利噪声,如[11]所示。如前所述,我们因此,我们可以用以下公式E [Y |Z] − kZ有一个未观察到的干净图像X<$X,我们观察到该干净图像的单个噪声实现Y噪音需要E[X|Z]=.(十一)(1−k)逐像素二进制掩码N的形式,其在概率为p的情况下为逐元素零,否则为1因此,Y,N<$X,其中<$X是逐元素乘法。在训练过程中,我们独立采样另一个像素-逐元素二进制掩码M,它是逐元素零,概率为q,否则为1,并构造Z,M<$Y=M<$N<$X。该网络以Z作为输入,并被要求预测Y,与中相同的L2损失函数上一节。 因此,网络学习函数f(z; θ)E[Y |Z = z]。就像网络不可能将两个由于加性噪声源,网络同样不可能完美地确定Z中的特定被掩蔽像素是被N掩蔽(因此在Y中被掩蔽)还是仅被M掩蔽(因此在Y中未被掩蔽)。如果特定像素位置i,j在Z中被掩蔽,则其在Y中也被掩蔽的概率为在加法的情况下,我们可以自由地将q调整为最小值。将合成损坏的数量增加到原始图像中的数量之外,但面临一个权衡,因为较低的q值会导致较大的k值,从而放大我们的网络在近似E [ Y]时所犯的任何错误的后果。|Z]。4. 实验我们提出了一个网络的训练和评价合成生成的噪声图像的实验结果。我们使用ImageNet[3]作为干净1图像的来源,并应用高斯噪声来生成噪声和双噪声训练图像。我们使用柯达图像集2作为我们的测试集。我们使用与[11]相同的网络架构。我们发现更大的批量大小有助于稳定训练,因此我们使用32的批量大小我们使用亚当优化器[7]对于150,000个批次,初始学习率为10−3,之后我们将其降低到10−4,用于另外15,000个批次P(Yij =0|Zijp= 0)=p+q−pq.(七)(共165,000批)。我们提出了与Noise2Noise的比较,我们将该概率定义为k,P(Yij=0|Zij=0)为了简洁。对于在Z中被掩蔽的像素位置i,j,E[Yij|Z]=(1−k)E[Xij|Z]+k·0。(八)Noise2Void, Deep Image Prior(DIP)和BM3D。为对于Noise2Noise,我们使用作者类似地,对于在Z中未被掩蔽的像素位置,1我们注意到许多ImageNet样本本身就很嘈杂。到E [Yij|Z]=Zij。(九)这种原始噪音与我们的合成噪音12071注意到E[Xij]|Z] =Zij当i时,j不被掩蔽,并且噪声,这可能会使训练过程复杂化,并妨碍性能稍微。当i,j被屏蔽时,Zij=0,我们可以重写两个ex,拉瓜斯E[Y|Z]=(1 −k)E[X|Z]+ kZ。(十)2http://r0k.us/graphics/kodak/3https://github.com/NVlabs/noise2noise4http://www.cs.tut.fi/5https://github.com/juglab/n2v12072图4.我们的方法与α = 0的比较。5对Noise2Noise和BM3D。在训练中保持一定的噪音水平。对于DIP,我们使用作者的实现6和默认超参数,除了sigma = 0时只使用1800次迭代。2、提高业绩。对于Noise2Void,我们在ColorBSD68数据集[14]上进行训练,以便与原始工作中的实验设计相匹配,并与所提供的实现兼容。虽然我们在测试集上获得的PSNR值与Noise2Void论文中报告的值一致,但使用更大的训练集可能会实现更高的性能。因此,我们报告的Noise2Void值应被视为该方法潜力的下限重要的是要注意,这些方法对任务做出了不同的假设,因此直接比较可能会产生误导。虽然我们对训练数据的可用性要求比Noise2Noise更低(单个噪声图像与配对噪声图像),我们还对噪声模型的知识强加了更强的要求(已知噪声模型vs.盲去噪)。BM3D需要噪声模型的估计,但不是学习去噪器,因此不需要训练数据。与Noise2Noise一样,我们的方法适用于具有非高斯空间相关噪声的设置,而BM3D专用于加性高斯白噪声场景。与我们的方法类似,Noise2Void不需要干净或配对的训练数据,并且进一步不需要噪声模型的知识。然而,它们确实要求噪声是逐像素独立的。Deep Image Prior不需要任何训练数据,但需要为每个输入图像进行数千个在表1中,我们比较了柯达图像集在高斯白噪声下的平均PSNR,具有不同的强度。 对于α/= 1的结果,我们微调网络使用α=1训练20,000个额外批次,6https://github.com/DmitryUlyanov/深像先验方法σ = 0。05σ =0。1σ =0。2噪声输入26.0220.0013.98我们的,α=133.9830.8027.92我们的SN,α=132.8530.4227.17我们的,α= 0。535.0931.8028.73我们的SN,α =0。535.4231.9628.69我们的,α= 0。2535.1831.7928.30我们的SN,α =0。2535.3231.9128.41[第11话]35.6432.2929.13CBM3D[2]35.2731.7128.54[8]第八话29.4529.8127.57中文(简体)32.0230.0626.43表1.柯达图像在各种噪点级别下的平均PSNR值σ值使用[0,1]范围作为像素强度。我们的- SN是在测试期间向网络提供单一噪声图像的策略。方法σ = 0。05σ =0。1σ =0。2噪声输入0.5860.3440.167我们的,α=0。50.9290.8730.787我们的SNα =0。50.9300.8690.770Noise2Noise0.9360.8830.800表2.柯达图像上的SSIM平均值设置为各种噪声级别。学习率为10- 4。表2显示了同一测试集的平均SSIM值为了简洁起见,我们只对选定的方法进行SSIM评估,因为总体趋势与PSNR结果相同。我们注意到SSIM对Ours-SN策略产生的模糊更敏感,如图5所示。我们发现,我们的方法能够产生比BM3D,DIP和12073Noise2Void具有更高PSNR的重建,但当α=1时,我们的重建质量会受到影响。Noise2Noise始终产生比我们的好几十分之一dB的重建,12074方法PSNRSSIM原始噪声25.210.764我们的,α=131.660.959我们的,α=0。532.550.965Noise2Noise33.450.970图5.在推理时使用双噪声输入(左下)和单噪声输入(右下)时的结果比较,其中σ=0。1,α= 1。示出了配对训练数据在可用时的值我们的方法与Noise2Noise和BM3D的定性比较如图4所示。在噪声水平上,我们发现α=0。5是一个成功的设定。如前所述,在α较低的情况下,我们的网络可以更清晰地看到未增强图像,因此能够恢复更多细节。 另一方面,较低的α还导致校正步骤中的较大乘数,这放大了任何误差。我们知道α=0。25的性能略差于α=0。5对于许多设置,因为后者的效果变得更加明显。我们还观察到,在测试期间向网络显示图像的单一噪声版本,而不是添加额外的噪声,会损害α较大的性能,但可以提高α较小的性能。在测试时使用一方面,这些输入在网络训练期间看到的分布之外,因此我们应该预期概率会有所下降;另一方面,这些输入比具有附加噪声的那些输入更干净,因此使网络更好地观察潜在信号。当我们减小α时,我们减小了训练/测试分布偏移的幅度,同时保持了更干净的输入的好处。如图5所示,向网络提供单一噪声输入可能会导致精细细节的丢失和视觉质量的相应下降这种过度平滑的现象甚至发生在PSNR对于单一噪声输入比对于增强输入更高的设置中。图3显示了我们的方法的定性结果(α=0。表1中的5表3.柯达影像在结构化噪声模型下设置。图6.我们的方法对结构化噪声的结果。集在较低的噪声水平,我们观察到结构(眼睛)和纹理(羽毛)的强烈恢复。随着噪声强度的增加,我们的网络很难重新覆盖羽毛纹理的精细高频细节。因为我们使用L2损失函数进行训练,所以当不确定时,我们的网络会产生所有可能的潜在图像的平均值,这会导致不自然的平滑鸟。在图6中,我们展示了在结构化噪声上训练的模型的结果。该噪声是通过逐像素i.i.d.采样产生的。白噪声,然后将其与系数与σ=10px的2D高斯成比例的21×21滤波器卷积。我们的方法能够在不破坏帆和水的细节的情况下是的,怎么-然而,要想恢复云的正确纹理,可能是因为它们的纹理具有与噪声大致相同的频率。表 3 示 出 了 我 们 的 方 法 和 该 结 构 噪 声 模 型 上 的Noise2Noise的PSNR和SSIM比较。正如预期的那样,我们的方法和Noise2Noise之间的差异与i.i.d.中的差异具有相同的幅度白噪声设置。图7显示了我们在乘性伯努利噪声上训练的方法的示例,其中p=q=0。五、在推理时,我们只将单一噪声版本馈送到网络。根据经验,我们观察到这样做在这种情况下特别有帮助,大概是因为网络没有区分噪声像素和干净像素的问题。原则上,我们可以通过对网络的预测进行非屏蔽,进一步略微改进结果。12075图7.结果我们的方法对乘性伯努利噪声。像素与它们的输入值,但我们在这里显示的是当网络被要求预测所有像素值我们获得的平均PSNR为31.73(32.63时,保留未掩蔽的输入像素)的柯达集,这是比较parable到32.02报告的Noise2Noise。5. 今后工作如前所述,网络在试图预测其目标时必须应对两种类型的不确定性。第一个是关于哪个噪声来自N,哪个噪声来自M的不确定性,第二个是关于X的真实值的不确定性。虽然我们希望X的不确定性在实践中很小,但总会有一些模糊性。原则上,任何给定的噪声图像都可能很可能对应于许多干净的图像。我们的方法使用了L2损失函数,因为它会在第一种不确定性情况下产生期望的均值发现行为然而,当面对第二种类型的不确定性时,也会诱发这种相同的行为。换句话说,我们应该期望我们的模型在给定噪声输入的情况下输出一系列看似合理的干净图像的平均值。对我们模型的输出进行额外的正则化,可能能够阻止在干净的图像上出现不必要的模糊。我们应该期望,模型的原始输出和refrec- tion之间的残差implied我们未来的工作将探讨是否正规化,惩罚非现实主义的残差是能够产生更高的视觉质量重建。特别地,我们打算探索惩罚残差的简单统计(均值、方差等)。这些方法可以用来识别与其正确值不同的残差,以及更高级的方法,例如训练GAN风格的鉴别器,以尝试区分残差与真实噪声样本。后一种方法很有吸引力,因为它消除了机器人学习任何关于自然图像复杂流形的需要,而是只要求机器人识别自然图像。从一个简单的,行为良好的噪声分布中提取样本。6. 结论总之,我们的方法使得能够在现有技术不可行的设置中训练去噪神经网络Noise2Noise需要成对的噪声图像 , 我 们 的 方 法 只 需 要 单 个 噪 声 图 像 。 其 中Noise2Void需要逐像素i.i.d.噪声,我们的方法也适用于空间结构噪声。我们能够产生的重建在Noise2Noise产生的重建的0.5dB之内,并且质量高于Noise2Void,DIP和BM3D产生的重建。引用[1] 乔舒亚·巴特森和罗伊克·罗耶Noise2self:通过自我监督进行盲去噪。arXiv预印本arXiv:1901.11365,2019。[2] Kostadin Dabov、Alessandro Foi、Vladimir Katkovnik和Karen Egiazarian。稀疏三维变换域协同滤波图像去噪IEEE Transactions on image processing,16(8):2080[3] Jia Deng,Wei Dong,Richard Socher,Li-Jia Li,KaiLi,and Li Fei-Fei. Imagenet:一个大规模的分层图像数据库。2009年IEEE计算机视觉和模式识别会议,第248-255页。Ieee,2009年。[4] 巴特·古森斯,亚历山德拉·皮祖里卡,威尔弗里德·菲利普斯。在小波域中对感兴趣信号建模去除相关噪声。IEEE transactions on image processing,18(6):1153[5] Phillip Isola,Jun-Yan Zhu,Tinghui Zhou,and Alexei AEfros.使用条件对抗网络的图像到图像翻译。在IEEE计算机视觉和模式识别会议论文集,第1125-1134页,2017年。[6] 罗希特·耶拿提出了一种在无干净图像的情况下,利用Manifold近似进行图像去噪的方法. arXiv预印本arXiv:1904.12323,2019。[7] Diederik P Kingma和Jimmy Ba。Adam:随机最佳化的方法。arXiv预印本arXiv:1412.6980,2014。[8] Alexander Krull,Tim-Oliver Buchholz,and Florian Jug.Noise 2 void-learning从单个噪声图像去噪。在IEEE计算机视觉和模式识别会议论文集,第2129-2137页[9] 亚历山大·克鲁尔托马斯·维卡和弗洛里安·贾格概率噪声2void:无监督内容感知去噪。arXiv预印本arXiv:1906.00651,2019。[10] Samuli Laine,Jaakko Lehtinen,and Timo Aila.自监督深度图像去噪。arXiv预印本arXiv:1901.10277,2019。[11] Jaakko Lehtinen 、 Jacob Munkberg 、 Jon Hasselgren 、Samuli Laine、Tero Karras、Miika Aittala和Timo Aila。Noise2noise:没有干净数据的学习图像恢复。arXiv预印本arXiv:1803.04189,2018。12076[12] 伊米尔·马基宁,卢西奥·阿扎里,亚历山德罗·福伊。静态相关噪声协同滤波的变换域噪声方差。在2019年IEEE图像处理国际会议(ICIP)上,第185-189页。IEEE,2019。[13] Xiao-Jiao Mao,Chunhua Shen,Yu-Bin Yang. 使用具有对称跳跃连接的卷积自动编码器的图像恢复arXiv预印本arXiv:1606.08921,2016年。[14] D.马丁角,澳-地Fowlkes,D. Tal和J.马利克 人类分割自然图像数据库及其在评估分割算法和测量生态统计中的应用。第八届国际会议论文集计算机视觉,第2卷,第416-423页,2001年7月。[15] 德米特里·乌里扬诺夫,安德烈·维达尔迪,维克多·伦皮茨基。深度图像先验。在IEEE计算机视觉和模式识别会议论文集,第9446- 9454页[16] Junyuan Xie,Linli Xu,and Enhong Chen.使用深度神经网络进行图像去噪和修复。神经信息处理系统的进展,第341-349页,2012年。[17] 君虚、元黄、李流、范铸、兴松侯、凌绍。噪音如清洁:从 受损图像中学 习无监督去 噪。arXiv预印本arXiv:1906.06878,2019。[18] Chao Yang,Xin Lu,Zer Lin,Eli Shechtman,OliverWang,and Hao Li.基于多尺度神经块合成的高分辨率图像修复。在IEEE计算机视觉和模式识别会议论文集,第6721-6729页[19] Kai Zhang , Wangmeng Zuo , Yunjin Chen , DeyuMeng , and Lei Zhang.Beyond a Gaussian denoiser :Residual learning of deep cnn for image denoising.IEEETransactions on Image Processing,26(7):3142[20] Jun-Yan Zhu , Taesung Park , Phillip Isola , Alexei AEfros.使用循环一致对抗网络的不成对图像到图像翻译。在IEEE计算机视觉国际会议论文集,第2223- 2232页
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 保险服务门店新年工作计划PPT.pptx
- 车辆安全工作计划PPT.pptx
- ipqc工作总结PPT.pptx
- 车间员工上半年工作总结PPT.pptx
- 保险公司员工的工作总结PPT.pptx
- 报价工作总结PPT.pptx
- 冲压车间实习工作总结PPT.pptx
- ktv周工作总结PPT.pptx
- 保育院总务工作计划PPT.pptx
- xx年度现代教育技术工作总结PPT.pptx
- 出纳的年终总结PPT.pptx
- 贝贝班班级工作计划PPT.pptx
- 变电值班员技术个人工作总结PPT.pptx
- 大学生读书活动策划书PPT.pptx
- 财务出纳月工作总结PPT.pptx
- 大学生“三支一扶”服务期满工作总结(2)PPT.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)