没有合适的资源?快使用搜索试试~ 我知道了~
EDSRSANRCANEDSRSANRCAN21180基于纹理的图像超分辨率错误分析0Salma Abdel Magid 1 Zudi Lin 1 Donglai Wei 2 Yulun Zhang 3 Jinjin Gu 4 Hanspeter Pfister 101 哈佛大学 2 波士顿学院 3 ETH Z¨urich 4 悉尼大学0摘要0图像超分辨率(SR)的评估实践使用单值度量,即PSNR或SSIM,来确定模型的性能。这对于错误的来源和模型的行为提供了很少的洞察力。因此,超越传统方法并以可解释性为主要优先事项进行评估是有益的。我们专注于从各个角度进行彻底的错误分析。我们的主要贡献是利用纹理分类器,使我们能够为补丁分配语义标签,以识别SR错误的来源,无论是全局还是局部。然后,我们使用这个来确定(a)SR数据集的语义对齐程度,(b)SR模型在每个标签上的表现如何,(c)高分辨率(HR)和SR补丁在语义上的对应程度等等。通过这些不同的角度,我们能够突出潜在的问题和盲点。我们的整体调查突出了许多意想不到的见解。我们希望这项工作能成为调试黑盒SR网络的初步步骤。01. 引言0近年来,训练和评估图像SR模型的标准做法并没有发生很大变化。神经网络在Diverse 2K (DIV2K) [40]HR图像上进行优化。然后使用五个基准数据集进行评估:Set5 [3],Set14 [45],B100 [28],Urban100[15]和Manga109[29],使用峰值信噪比(PSNR)和结构相似性指数(SSIM)[43]这两个指标。该协议最终塑造了网络的性能,并提供了一种将模型相互比较的手段。我们注意到这种标准方法存在一些限制。首先,使用单个值来表示模型在整个数据集上的性能。一个图像内部存在巨大的变异性,更不用说整个数据集了。仅使用PSNR很难展示真正的性能,也无法向用户指示模型在哪些方面失败。其次,由于我们没有关于数据集的具体描述,这些性能结果可能会误导。例如,模型可能在补丁上表现良好0原始0图1.来自最先进的SR模型的错误的视觉示例。一些重建完全改变了补丁的语义含义。在左下角的一行中,飞机机翼上的数字“094”被遮挡或更改为其他数字。特别是在推理时,检测此类错误至关重要。0这些不反映数据集整体内容的补丁。此外,这些数据集还没有被探究,不清楚它们是否适合该任务,无论是训练还是评估。此外,在推理时,我们无法访问原始的HR图像。已经证明神经网络会做出过于自信的预测[14]。更令人担忧的是,SR网络经常改变图像的语义含义。图1显示了原始的HR图像以及流行的SR模型的几个重建图像。在左上角的图像中,飞机机翼上包含数字“094”。然而,在所有三个SR模型的重建图像中,数字被遮挡或转换为其他数字。类似地,在下一张鸟的图像中,方向、宽度和线条数量发生了变化。这些类型的错误很重要,因为它们可以改变图像的语义含义。在生物医学等安全关键领域,捕捉和理解这些错误的重要性更加突出。例如,Weigert等人[44]引入了CARE网络来恢复荧光显微镜数据。他们表明,重要的生物结构可能会随机出现和消失,从而显著影响下游分析。为了开始解决这些问题,我们对SR框架的每个步骤的错误来源进行了更详细的研究。P(texture)Labels(a) StandaLR…21190纹理分类器0分析工具:纹理分类器0分类0label=grid0分类0纹0性能评估0SR模型0SR0HR0PSNRSSMI0错误来源0局部 全局0HR:多孔 SR:雀斑0纹理:多孔 纹理:雀斑0HR SR0PSNR(dB)0纹理标签0(a)数据分布(c)语义一致性(b)错误分布0纹理标签0频率0图2.我们基于纹理的图像SR错误分析框架概述。在训练纹理分类模型之后,我们可以从多个角度分析SR错误的来源,包括(a)数据集的不同纹理分布,(b)SR性能与纹理类别之间的关系,以及(c)HR和SR对之间的纹理对齐。这种方法提供了仅仅使用PSNR/SSIM无法提供的见解。0我们分析的指导原则是以人为中心的原则。也就是说,我们希望使用直观、易于识别和足够表达的语言。我们的研究通过纹理和模式的视角进行设计。如图2所示,通过将自然图像流形划分为语义上有意义的组(例如,格子、条纹、斑点等),我们可以从多个角度分析SR错误的来源,包括数据集的不同纹理分布、SR性能与纹理类别的关系以及HR和SR对之间的纹理对齐。这种方法提供了仅仅使用PSNR/SSIM无法提供的见解。0•每个SR数据集中编码了什么类型的语义信息,训练集和评估集之间的对齐程度如何?0• 相对于这些语义组,模型的失败发生在哪里?这些图像的性质是什么?0• 图像SR模型是否保留了补丁的语义含义?0这项工作得出了以下主要见解和贡献:(1)我们提供了每个数据集的全面语义概况,这对于评估数据集的多样性和捕捉它们之间的语义对齐程度非常有价值。我们发现SR框架中的数据集对某些语义组有偏见。(2)我们验证了语义类别标签可以作为补丁难度的代理。这使我们有了一种有意义的思考和交流数据的方式。(3)SR模型表现最好的标签并不是反映整个数据集内容的标签。这激励我们考虑超过PSNR的替代评估方法。(4)对于某些语义标签,深度学习的效果意外地很小,简单的双三次上采样甚至可以超过深度模型。(5)我们提出了一个简单的度量方法来策划一个训练集。我们证明,仅仅训练那些感兴趣的补丁可以加速训练,即使这些补丁只占原始训练数据的20%。(6)SR模型意外地改变了补丁的语义含义。02. 相关工作0图像超分辨率。图像SR问题通常被视为一个密集回归任务,目标是学习一个低分辨率图像到其高分辨率对应物的映射。0通过低分辨率(LR)图像和其高分辨率(HR)对应物之间的功能映射来进行图像超分辨率(SR)任务。对于这个任务有多种方法。模型可以是基于残差的[18, 23, 47,48],生成式的[11, 17, 21,42],甚至最近的基于Transformer的[4, 22,24]。第一个使用深度学习进行这个任务的方法是SRCNN[8],它采用了一个小型的三层架构。许多研究尝试扩展或加深SR网络以克服梯度消失问题。为了克服梯度消失问题,EDSR[23]采用了残差学习方法。由于其成功和流行的代码库,研究界一直致力于在EDSR的基础上进行进一步的研究。一种方法是集成不同的通道和空间注意机制。例如,RCAN[47],DFSA[26],SAN[7],CSNLN[32]和NLSN[31]都融入了注意机制。SAN,CSNLN和NLSN模型依赖于非局部注意力来捕捉全局语义关系和长距离特征相关性。我们的研究重点是这些类型的模型,以便进行分析。我们工作的主要动机是研究SR模型的行为,以便设计更好、更安全的架构。为此,我们转向可解释性。可解释性。机器学习的可解释性是一个不断发展的领域,旨在理解模型如何进行预测(例如,网络检查[27])。周等人提出了网络解剖学来量化节点的可解释性。他们发现某些节点负责特定的语义概念,如“飞机”和“灯”。除了模型,人们还可以更好地理解数据。例如,影响函数确定了哪些训练点对特定预测的贡献[19]。其他可解释性方法[25,35-39]考虑的是输入而不是模型或数据。它们的目标是量化哪些输入特征影响输出,即所谓的归因图。LAM[12]采用了这个想法来进行图像SR,它确定了输入LR图像中每个像素相对于SR图像的重要性。解释模型预测的另一种方法是使用反事实[10,41]。这是通过改变实例的输入特征值,然后分析预测的变化来实现的。本节讨论的方法(除了LAM)旨在用于图像分类,不直接适用于图像SR。我们的分析的指导原则是以人为中心的原则。也就是说,我们希望使用直观、易于识别和足够表达的语言。我们的研究通过纹理和模式的视角进行设计。如图2所示,通过将自然图像流形划分为语义上有意义的组(例如,格子、条纹、斑点等),我们可以从多个角度分析SR错误的来源,包括数据集的不同纹理分布、SR性能与纹理类别的关系以及HR和SR对之间的纹理对齐。这种方法提供了仅仅使用PSNR/SSIM无法提供的见解。21200挑战在于SR建模任务与图像分类根本不同。我们希望通过对图像SR进行可解释性分析来弥合这种差距。据我们所知,我们是第一个根据语义标签对数据和模型进行分析的。此外,由于我们将分类器引入SR框架中,许多可解释性工具也可以潜在地使用。我们想指出的是,将分类器纳入SR框架的概念并不新鲜。例如,感知损失[9,16]使用分类器来最小化地面实况和预测之间的差异。因此,利用分类模型进行SR是有价值的,特别是那些在相关数据集上训练的模型。03. 方法0我们的目标是对SR框架中潜在的错误源进行更严格的理解,通过纹理分类器(Figure2)实现。在错误分析之前,我们首先从复杂性的角度研究数据集和纹理。一旦我们了解了纹理,我们就会进行错误分析。在第一阶段,我们确定每个数据集的纹理语义内容及其对齐程度。然后,我们检查SR模型在每个纹理上的表现。接下来,我们考虑深度学习在这些纹理上与传统方法的比较。然后,我们定性和定量评估如何使用标签来确定SR模型如何改变补丁的语义含义。在本节中,我们首先描述了纹理分类器的训练和合理性检查。为了激发我们对纹理的使用,考虑一些替代方案。有人可能会认为使用一些在技术上更精确、解释性更强的特征,比如频率系数。这将涉及到用傅里叶系数来表示图像补丁。但这对人类来说有多容易理解呢?频率系数到底意味着什么?它涉及到讨论幅度、相位,有时还涉及到复数。纹理标签使我们能够避开这些问题。03.1. 纹理分类器0训练数据。我们使用可描述纹理数据集(DTD)[5]来训练纹理分类器。DTD是一个经过筛选的纹理图像集合。这个数据集最重要的特点是标签是以人为中心的。数据集包含5,640张属于47个纹理类别的图像。每个类别有120张图像。图像的尺寸从300×300到640×640不等。架构。一般来说,分类器的卷积层通过使用滑动窗口来局部提取特征。这样就得到了保留输入图像相对空间排列的特征图。然后将这些有序的特征图输入到全连接层进行分类。0虽然这对于一般的图像分类效果很好,但对于纹理识别来说并不理想,因为表示需要具有空间不变性。张等人[46]提出了一个端到端的框架,其中包括一个无序表示的编码。纹理分类器的架构是一个深度纹理编码网络(DeepTEN)[46]。骨干网络是ResNet50[13]。DeepTEN非常适合我们的用例,因为它在骨干网络之上构建了一个提出的残差编码层。实现细节。我们在DTD[5]的训练集和验证集上训练DeepTEN模型。对于纹理分类器来说,实现合理的准确性是非常困难的。我们的超参数调优实验得出了以下设置。我们使用大小为224×224的输入,批量大小为64。我们使用初始学习率为0.01(每150个epoch减小10倍),动量为0.9,权重衰减为10^-6。使用RandAugment[6]进行数据增强,N=1,M=1,并进行额外的随机裁剪、水平和垂直翻转。输入使用ImageNet统计数据进行归一化。使用标准的多类交叉熵(CE)损失来训练网络。我们实现了97%的训练准确率和72%的测试准确率。03.2. 纹理嵌入0我们通过流形可视化来检查分类器学到的表示。简单地对原始图像进行聚类会产生较差的结果,并且无法提供人类可理解的标签。相反,我们从训练好的分类器中提取中间表示。通过这种方式,我们能够从鸟瞰角度研究流形,以获得可解释和相关的标签。为了进行自动标记,我们从给定的SR数据集中的每个图像中随机提取大小为128×128的50个补丁。这些步骤按照描述的方式进行,以模拟SR训练过程。由于DIV2K训练集中有800个图像,因此得到的点数为40,000。纹理分类器应用于每个补丁,以获取(1)中间嵌入和(2)纹理分类标签。中间嵌入是从分类器的倒数第二层提取的,维度为4,096。因此,用于聚类的数据的大小为40,000×4,096。我们使用标准的K-Means聚类算法,并将聚类数设置为15,以获得合理的细粒度级别。使用Uniform ManifoldApproximation and Projection (UMAP)[30]算法将维度从4,096降低到2以进行可视化。04. 实验04.1. 数据和纹理理解0ter understand the defining characteristics. Several metricshave been proposed with the aim of capturing complex-ity. In a related image enhancement field, [33] propose thePatchSNR, or the “Signal-to-Noise” ratio within a patch.The PatchSNR is defined as the square root of the varianceof the clean patch divided by the variance of the noise. Theydemonstrated that certain patches have a preference to inter-nal or external denoising using this metric. Alternatively, arecent work [20], proposes ClassSR in which they framethis as an image classification task. They train a shallownetwork to classify the complexity of a patch. The groundtruth is determined by the PSNR of MSRResNet [42] andsplit into three classes: easy, medium, and hard. Whenproposing DIV2K, Agustsson et al. [40] examined the en-tropy of images vs. the bicubic PSNR. The entropy is anindicator of the amount of information present in the im-age per image pixel [1]. We show below that contrary toAgustsson et al. [40], entropy can not always be used topredict the PSNR, i.e., entropy serves as a proxy for thecomplexity. Following the logic of [40], Figure 3 showsthe entropy of the gradients vs. the bicubic PSNR (×4) ofDIV2K patches. The best fit line is shown in red, indicatinga strong inverse relationship. From the plot, we can see thatas entropy increases, the PSNR generally decreases. How-ever, for a single entropy value, we can have a large spreadof different PSNR values. Consider the blue dashed line atentropy = 8. We show two patches along this line that havethe same entropy, yet the PSNR of one is more than twicethat of the other. Likewise, for a single PSNR value of 30dB (indicated by the dashed purple line), we have entirelydifferent entropy values. This means that neither the PSNRalone nor the entropy of the gradients alone are effectivemeasures of the perceptual complexity and difficulty.21210图3.梯度熵与DIV2K补丁的双三次PSNR之间的关系。红色线表示最佳拟合线,表明它们之间存在强烈的反向关系。随着熵的增加,PSNR通常会降低。沿着紫色和蓝色虚线的样本补丁展示了一个有趣的行为。当一个变量保持不变时,另一个变量的值可以有很大的变化范围。0方法2:PSNR与熵之间的纹理标签对比。为了更好地理解纹理所捕捉到的内容0熵0点状的斑点状的蜂窝状0交织的交叉花呢0图4.相对于双三次PSNR性能的前3个和后3个表现最好的标签。最后3个标签通常具有较高的熵和较低的PSNR。黑色点属于感兴趣的标签,而灰色点对应于其余点。0相对于复杂性,我们再次进行相同的分析,但这次是相对于纹理标签。图4显示了与图3相同数据的前3个和后3个标签。通过这个视图,我们能够评估纹理并了解它们对应的复杂性。有趣的是,对于最后3个标签,它们通常集中在右上象限,其中补丁的PSNR较低且熵较高。另一方面,前3个标签分布在熵和PSNR值的范围内,表明复杂性各异。我们还注意到这些前3个标签之间存在一定的冗余。由于它们通常涵盖整个图,它们包含了冗余的模式。尽管这种方法以无偏的方式帮助我们理解纹理,但我们仍然需要更好地了解纹理之间的关系以及上述冗余是如何表现出来的。为此,我们将纹理特征嵌入通过聚类进行分组。方法3:纹理特征流形。最后,为了了解纹理之间的关系,我们将补丁投影到纹理分类器的嵌入空间(倒数第二层的输出),并可视化它们所覆盖的流形。图5显示了DIV2K聚类所覆盖的流形。在底部的图中,点的颜色基于它们的聚类标签。聚类之间和聚类内存在丰富而多样的复杂性。由于这种聚类和内聚变异性,我们在顶部的图中展示了相同的点,但是根据它们的分类标签进行着色。LabelsClusters124356789101112131415Multiple labelsSingle cluster Single labelMultiple clustersblotchymattedflecked/porousfleckedgroovedpotholedcrystallinecrosshatchedgauzysmearedporous/pittedmarbledstainedcobwebbed/veinedsprinkled21220图5. DIV2K [40]训练补丁投影到纹理分类器嵌入空间(倒数第二层的输出)的UMAP。在顶部的可视化中,点的颜色基于纹理分类器预测的分类标签,共有47个标签。在底部的可视化中,点的颜色基于嵌入空间聚类,共有15个聚类。方框演示了一个单一聚类(左下角)可以涵盖多个类别,以及一个单一标签(右上角)可以包含多个聚类。0在图6中,我们展示了每个聚类中的样本补丁以及聚类的顶级标签,以供参考。我们发现了一些有趣的语义相关性,使得描述更加细致和表达力更强。尽管图6中的标签是该聚类中补丁中最常见的,但有些标签可能与多个语义相关的标签高度相关(即图中第3列第4行的 grid 和 lined 或cobwebbed 和 veined)。这种行为在流形可视化中进一步说明,我们可以看到几个类别重叠。在图5左侧的方框区域中,我们展示了聚类#4(深绿色)包含多个纹理类别的情况。有趣的是,我们还注意到相反的情况也可能发生。在右上角的边界框中,点对应于一个单一的标签(深粉色)。然而,这些点属于多个聚类。这导致了两个主要的观点。首先,必须存在一些共同的特征,使得点同时属于多个聚类和标签。因此,了解这些特征以及它们如何表达自己对我们非常有用。其次,我们的核心观点是:在评估SR模型时应考虑多个角度。讨论。到目前为止,我们的分析已经得出了一个非常重要的结论。在复杂性方面,标签和聚类之间存在显著的冗余。鉴于这种冗余,我们推测SR模型是否需要整个DIV2K训练集。我们注意到,最困难的0图6. 每个嵌入簇中的样本DIV2KHR补丁以及该簇最常见的纹理分类标签。最好以彩色和放大的方式查看。0高熵、低PSNR的补丁主要出现在右下象限。这些补丁大致对应于熵与PSNR比为0.4的点。为了确定这个度量标准是否有助于捕捉冗余特征,我们从头开始训练一个模型(EDSR),分别在所有补丁(图7中的“all”)和熵与PSNR比大于或等于0.4的补丁(图7中的“high”)上进行训练。对于图7(左),我们发现使用我们的度量标准(蓝色)训练高复杂度补丁与训练所有补丁(绿色)相比,性能存在显著差异。这意味着这些补丁中编码了有用且可推广的信息,并且仅仅训练这些补丁就足够了。这些补丁仅占训练数据的20%。通过将资源集中在这些较少的补丁上,我们可以取得更好和更快的结果。因此,将更多数据投入到问题中并不总是答案。补丁不能随机采样,它们需要经过精心选择。这可能与神经网络首先学习可推广特征的倾向有关[2,34]。这些可推广特征通常由简单和低频/低熵的模式组成。换句话说,SR模型利用了多个训练示例共享的模式。当80%的数据由较低复杂度的补丁组成时,预计对于更困难的补丁,学习会停滞不前。在图7(右)中,我们展示了在Urban100上评估所有补丁与高补丁时的性能。无论我们评估的是什么,训练高补丁都更好。我们还注意到在评估所有补丁(顶部)和高补丁(底部)之间存在很大的性能差异。这些见解可以在研究这些模型和用于训练它们的数据时指导我们的决策。05101520253019202122232425Train=all-Eval=highTrain=high-Eval=highTrain=all-Eval=allTrain=high-Eval=allAFTER INI051015202530222324252627Manga109-allManga109-highUrban100-allUrban100-highfleckedsprinkledpaisleysmearedporousfreckledpotholedpleatedcrosshatchedgauzySet14crystallinefibrousstainedfleckedsmearedmattedcrosshatchedgauzyporouspotholedB100poroussmearedzigzaggedveinedpleatedcrosshatchedgauzyinterlacedspiralledswirlyManga10905101520fibrousgroovedmattedstainedcrosshatchedsmearedpotholedgauzyfleckedporousDIV2K05101520linedcobwebbedpotholedgauzymeshedpleatedporouscrosshatchedgroovedgridUrban100PercentageLabel21230时期0PSNR(分贝)0Urban1000T FUNC0时期0PSNR(分贝)0Manga109和Urban1000图7. 我们从头开始训练EDSR[23],使用我们的度量标准在所有补丁上训练和在熵与PSNR比大于或等于0.4的补丁上训练(用high表示)。结果显示,在两个基准测试中,使用我们的度量标准训练高复杂度补丁时的性能与训练所有补丁时的性能存在显著差异。04.2. SR错误分析04.2.1 纹理标签的数据分布0图8定量化了每个数据集的每个标签的百分比。这种分布可以被视为一个语义概况,给出了数据集中图像类型的有意义的概述。我们可以利用这个概述来捕捉信息,同时也可以作为一个独特的指纹,用于确定训练数据和评估数据之间是否存在潜在的领域转移。对于DIV2K,我们看到大约30%的训练数据由多孔、斑点和薄纱补丁组成。这些标签的样本补丁在图6中可视化。这些可能对应于背景或失焦的图像补丁,例如“水”或“天空”超像素中的补丁。对于Urban100,大部分补丁被分配为网格、交叉线和凹槽的类别标签。Urban100数据集包含城市环境的图像,其中包含建筑物和窗户,通常具有非常网格状的结构。这些图像都包含重复的模式和高自相似性。标签分布简洁地总结了这些语义相关的数据集特征。类似地,B100主要由坑洞、多孔和薄纱补丁组成。B100涵盖了各种各样的现实场景。Manga109标签的分布特别有趣。它主要由两个密切相关的标签dominated:swirly和spiralled,其次是interlaced。这三个标签在DIV2K的前10个标签中都没有出现。Manga109的语义概况与其他评估数据集的类标签分布不同。这种行为可能归因于Manga109由艺术家绘制的图像组成。0图8. 每个数据集的前10个纹理标签的百分比。0这些图像具有动画风格,不是自然图像,它们的内部图像统计和先验知识是不同的。尽管如此,Manga109上的SR性能通常较高,因为图像复杂度较低。在这个数据集上的评估可能会误导模型的性能。我们注意到我们的语义概要能够检测到这种偏差。这可以是一种有价值的方法,用于捕捉与训练数据的语义对齐程度,并可以标记潜在的领域转移等严重问题。此外,该方法还可以用于评估数据集的多样性。04.2.2 纹理标签的错误分布0潜在陷阱:模型在表现最佳的语义组上的表现并不代表数据集的代表性。现在我们已经了解了每个数据集中各个语义组的补丁类型的概述,我们想评估深度学习SR模型在每个语义组上的表现如何。图9显示了每个基准数据集的前5个和后5个标签的平均PSNR,由红线分隔。每个柱状图上的白色文本表示SR模型与传统的双三次插值之间的绝对差异。从这个图中可以得出几个见解。首先,某些类别标签在数据集和SR模型之间始终很难或始终很容易。例如,纤维类标签在每个数据集和每个SR模型的后5个标签中出现。同样,泡沫和斑点常常出现在前5个性能最佳的标签中。由于这种一致的行为,我们可以验证类别标签可以作为补丁难度的代理。这是有用的,因为它给我们提供了一种更有意义的思考和交流数据的方式。例如,如果我们要创建一个新的具有挑战性的数据集,我们可以使用性能最差的类别标签来收集图像。其次,我们在前一节中注意到了每个数据集中最常见的标签是什么(在图8中)。这个分布给我们提供了数据集的描述,并指示哪些标签最能反映其内容。令人担忧的是,图9中并没有显示这些补丁在性能最佳的前5个标签中。模型表现最佳的标签并不是反映数据集内容的标签。例如,交叉线是Urban100的第三个最常见的标签,但在所有SR模型中始终位于性能最差的标签中。这更加激励我们在考虑模型性能时将这两个概述结合在一起。它们给出了更精细和全面的性能反馈。我们可能将某些标签在某些数据集的后5个中的一致出现归因于这种类型的补丁在训练数据中不常见。如果模型没有遇到足够数量的这种类型的补丁,性能将较低。0102030perforatedbraidedpaisleyfibrousinterlacedbandedcrystallinefreckledblotchywa≤edEDSR1.320.651.950.873.342.363.172.812.294.31Set1402040fibrousstripedperforatedinterlacedgridblotchyfreckledstainedwa≤edwoven0.983.291.641.301.892.433.361.711.141.33B10002040frillyfibrousmattedcobwebbedcrosshatchedchequeredblotchybubblymarbledpitted2.121.421.912.002.085.622.043.701.260.41Urban1000102030mattedfibrouscrosshatchedwrinkledscalylinedpolka-dottedbandedhoneycombedflecked4.423.854.783.884.687.306.566.894.018.47Manga1090102030perforatedbraidedpaisleyfibrousinterlacedbandedfreckledcrystallineblotchywa≤edSAN1.630.702.391.053.622.533.043.522.534.5002040fibrousstripedperforatedinterlacedgridblotchyfreckledstainedwa≤edwoven1.173.862.021.472.202.753.701.881.321.8202040frillyfibrousmattedcrosshatchedcobwebbedblotchybubblychequeredmarbledpitted2.461.702.482.622.742.544.026.551.560.500102030mattedfibrouscrosshatchedwrinkledscalybumpypolka-dottedbandedhoneycombedflecked5.254.485.694.535.676.027.927.534.685.870102030perforatedbraidedpaisleyfibrousinterlacedbandedfreckledcrystallineblotchywa≤edNLSN1.670.692.441.093.712.592.943.492.514.5702040fibrousstripedperforatedinterlacedgridblotchyfreckledstainedwa≤edwoven1.183.561.961.522.342.833.531.931.421.7602040frillyfibrousmattedcrosshatchedcobwebbedbubblychequeredfleckedmarbledpitted2.531.842.702.763.104.036.638.371.540.470102030fibrousmattedcrosshatchedwrinkledscalypolka-dottedbandedlinedhoneycombedflecked4.625.675.984.775.857.977.849.994.746.030102030perforatedbraidedpaisleyfibrousinterlacedbandedcrystallinefreckledblotchywa≤edEDSR1.320.651.950.873.342.363.172.812.294.3102040fibrousstripedperforatedinterlacedgridblotchyfreckledstainedwa≤edwoven0.983.291.641.301.892.433.361.711.141.3302040frillyfibrousmattedcobwebbedcrosshatchedchequeredblotchybubblymarbledpitted2.121.421.912.002.085.622.043.701.260.410102030mattedfibrouscrosshatchedwrinkledscalylinedpolka-dottedbandedhoneycombedflecked4.423.854.783.884.687.306.566.894.018.470102030perforatedbraidedpaisleyfibrousinterlacedbandedfreckledcrystallineblotchywa≤edRCAN1.800.692.411.023.622.252.983.522.523.9402040fibrousperforatedinterlacedstripedgridblotchyfreckledstainedwa≤edwoven1.131.911.514.162.202.733.691.841.391.8602040frillyfibrousmattedcrosshatchedcobwebbedblotchybubblychequeredmarbledpitted2.481.642.482.592.832.494.086.631.500.430102030mattedfibrouscrosshatchedwrinkledscalycrystallinepolka-dottedbandedhoneycombedflecked5.184.525.634.485.616.607.337.794.735.94PSNR (dB)0102030perforatedbraidedpaisleyfibrousinterlacedbandedcrystallinefreckledblotchywa≤edEDSR1.320.651.950.873.342.363.172.812.294.31Set1402040fibrousstripedperforatedinterlacedgridblotchyfreckledstainedwa≤edwoven0.983.291.641.301.892.433.361.711.141.33B10002040frillyfibrousmattedcobwebbedcrosshatchedchequeredblotchybubblymarbledpitted2.121.421.912.002.085.622.043.701.260.41Urban1000102030mattedfibrouscrosshatchedwrinkledscalylinedpolka-dottedbandedhoneycombedflecked4.423.854.783.884.687.306.566.894.018.47Manga1090102030perforatedbraidedpaisleyfibrousinterlacedbandedfreckledcrystallineblotchywa≤edSAN1.630.702.391.053.622.533.043.522.534.5002040fibrousstripedperforatedinterlacedgridblotchyfreckledstainedwa≤edwoven1.173.862.021.472.202.753.701.881.321.8202040frillyfibrousmattedcrosshatchedcobwebbedblotchybubblychequeredmarbledpitted2.461.702.482.622.742.544.026.551.560.500102030mattedfibrouscrosshatchedwrinkledscalybumpypolka-dottedbandedhoneycombedflecked5.254.485.694.535.676.027.927.534.685.870102030perforatedbraidedpaisleyfibrousinterlacedbandedfreckledcrystallineblotchywa≤edNLSN1.670.692.441.093.712.592.943.492.514.5702040fibrousst
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功