没有合适的资源?快使用搜索试试~ 我知道了~
142KN555Z-Score标准化、中心度和少镜头学习南一飞2、3高一招1、2植物路1、2、*陶翔41中国人民大学高陵人工智能学院,中国北京2大数据管理与分析方法3中国人民大学信息学院4英国吉尔福德萨里大学电气与电子工程系{feinanyi,luzhiwu} @ ruc.edu.cn摘要少样本学习(FSL)的目标是通过利用大量丰富的基类样本来识别一采用元学习框架,最新的FSL方法元学习深度特征嵌入网络,并且在推断期间使用学习的高维嵌入空间中的最近邻对新类样本进行分类。这意味着这些方法容易出现中心问题,即某个类原型成为许多测试实例的最近邻居,而不管它们属于哪个类然而,这个问题在很大程度上被忽视,在现有的FSL的研究。在这项工作中,我们第一次表明,许多FSL方法确实遭受的枢纽问题。为了减轻其负面影响,我们进一步建议在元训练期间采用z分数特征归一化,这是一种简单而有效的变换。一个理论分析,为什么它有助于。然后进行了大量的实验,以表明与z分数归一化,性能的许多最近的FSL方法可以提高,导致在新的国家的最先进的三个基准。1. 介绍近年来,深度卷积神经网络(CNN)的进步对各种视觉领域产生了深远的影响,例如对象识别[45,38,13],语义分割[26,4],甚至图像生成[33,42]。为了训练用于视觉识别的有效CNN模型,通常需要大量手动标记的训练然而,获得足够的训练数据通常是昂贵的,并且有时甚至是不可行的(例如,用于稀有对象类别)。深度识别模型的数据饥渴性质的一种解决方案是少次学习(FSL)[20,21],其旨在识别一组新的目标。*通讯作者。通过利用一组基本类,每个基本类都包含充足的样本,从而仅使用少量标记样本来对类进行对象化。最近的FSL方法通常遵循元学习框架并采用情景训练[8,47,49,2,19,9,59,7,63]。也就是说,它们在从丰富的基类图像采样的大量元任务/情节上训练它们的模型这是为了模仿新类的具体地,每个片段通过采样N个基本/新颖类来构造,其中每个类中具有K个标记样本作为支持集和待分类的查询图像的集合。现有的元学习方法不同,其中识别模型的包括特征嵌入网络和分类器的部分被元学习。值得注意的是,最近的FSL方法[47,2,59,63]专注于嵌入网络的Meta学习。一旦模型学习,在推理过程中,支持集样本用于在该嵌入空间中构造类原型,并且通过简单的最近邻(NN)搜索来完成查询样本的分类。在高维嵌入空间中使用NN使得这些FSL方法容易出现中心问题[34,43,50]。具体地,在高维空间中,最近邻遭受枢纽的存在,即,类原型是许多测试样本的最近邻居,无论它们属于哪个类。因此,这些枢纽明显损害识别性能。 为了说明轮毂问题,让我们举一个具体的例子。将k次出现N(h)(x)表示为样本x在数据集中所有其他点的k个最近邻居中出现的次数我们在图1(a)中可视化了迷你ImageNet[52]测试集上的N(h)分布,其中使用了在训练集上预训练的四块CNN Conv 4 -64我们还计算分布的中心度度量偏度S(h)第4.3节)。可以观察到该分布严重向右偏斜,即,大量样本具有低N(h)值,而一小组样本经常14355(a) ZN之前(b)ZN之后(c)ZN之前(d)ZN图1.使用Conv 4 -64在训练集上预训练的miniImageNet测试集上的可视化,共有12,000个样本(a)-(b)分别使用原始特征和z分数归一化(ZN)特征的N(h)的分布的可视化。S(h)表示分布的偏斜度,当分布更偏斜时,其绝对值更大。(c) – (d)N5使用原始特征和z分数归一化特征的20个分类中心之间的余弦相似性。µ(cos(x,x¯))和σ(cos(x,x′))分别是样本与数据集平均值之间的余弦相似性的平均值和标准差拜访过当使用最近的FSL方法[47,2,63]对预训练的嵌入网络进行元学习这提供了FSL中确实存在轮毂问题的直接证据。但是,据我们所知,这个问题在很大程度上被忽视了。要解决这个问题,我们必须首先找出潜在的原因。据发现,中心度的一个原因实际上是广泛使用的批量归一化(BN)[15]和非负激活函数(例如,ReLU)在深 度 嵌 入 CNN 中 。 特 别 是 , 我 们 发 现 使 用 BN 和ReLU,具有非负元素的输出特征向量在特征空间中通常具有相似的方向。为了显示这一点,在图1(c)中,我们可视化了20个类中心之间的余弦相似性(即,属于相同类的样本的特征平均值)也使用预训练的Conv 4 -64在miniImageNet的测试集上进行测试此外,我们计算所有样本与数据集平均值的余弦相似度(即,所有特征向量的平均值)并获得统计平均值和标准偏差。我们可以从图1(c)中清楚地看到,这些特征向量在方向上非常相似,这意味着不同类别的样本可以形成集群。 这个问题应该由随后的分类层纠正。然而,在基于度量的FSL中使用NN搜索并且没有用于救援的分类层,必须解决该问题。因此,我们对FSL中的中心性问题的解决方案是在预训练或情景训练期间部署替代的归一化策略。特别地,我们发现z分数归一化(ZN),一个在特征级的简单变换操作,可以提供一个有效的解决方案。更具体地,对于ZN,对于由嵌入网络提取的每个特征向量,其每个分量首先减去所有分量的平均值,然后除以所有分量的标准偏差。注意,在训练和推断期间,ZN被独立地应用于每个特征向量,并且因此归纳FSL设置被独立地应用于每个特征向量。在本文中仍然严格遵循。我们在图1(b)中对应用ZN之后的N(h)的分布进行可视化,并且还在图1(d)中对利用归一化特征计算的余弦相似度的热图进行可视化。从图1(b)中,我们可以看到,5次出现的分布被拉回到左侧,偏度值小得多。从图1(d)中,我们还可以观察到归一化嵌入空间中的不同类的样本更可分离。我们表明,这种简单的操作在预训练和情景训练期间都有效(见表1)。我们的主要贡献有三个方面:(1)据我们所知,我们是第一个在FSL的背景下揭示轮毂问题的人。(2)我们建议通过采用z分数特征归一化来减轻FSL中的hubness问题的负面影响。我们还提供了为什么它的工作原理的理论分析(3)通过大量的实验证明了简单的ZN操作可以促进各种基于嵌入/度量的FSL方法的发展。代码和模型将很快发布。2. 相关工作少射学习。最近的几次学习(FSL)方法[52,35,8,47,49,30,2,59,7,63]基于使用情景训练策略的元学习。它们可分为四类:基于度量的、基于模型的、基于优化的和基于生成的。(1)基于度量的方法尝试学习用于基于最近邻搜索的分类的合适的距离度量。它们或者学习一个嵌入空间用于它们选择/设计的度量[52,47,49,28](例如,欧氏距离)或二-直接学习度量[49,56,3,40,16,58]。代替将所有样本嵌入到共享的任务不可知度量空间中,[60,31,59,44]进一步学习任务自适应度量FSL的空间。(2)基于模型的方法[8,29,39]旨在使用基类学习良好的模型初始化144DD不DCC······|C|D{|∈CDD∩TD{|∈ CD C TCDCC ∩CCCQ{|∈ C···×} S∩Q∠CS{|∈ C···×}CS ∪ QCC|S|{∈ S|} S∈ C S以便仅使用少量标记的样本在新类上用有限数量的梯度更新步骤来(3)基于优化的方法[35,27,24]元学习新的优化算法,而不是标准的梯度下降,再次从基础到新的类的快速适应。(4)基于生成的方法Meta学习基类上的生成器,以生成额外的新类样本[12,55,41,22]或基于新类的几个镜头直接生成网络参数[32,10,11在本文中,我们主要集中在嵌入/度量为基础的FSL方法与最近邻bor分类器遭受的hubness问题。我们表明,一个简单的z分数特征归一化可以改善其性能,往往是相当大的利润率。FSL的特征归一化。归一化是通用的,并且在深度神经网络中也是必不可少的(例如,CNN中的批量归一化[15])。在本文中,我们专注于FSL的最终特征级别的归一化的影响。对于基于元学习的FSL,Nguyen etal.[28]提出SEN,其在所有样本上强制相等的l 2范数,并相应地修改欧几里得距离度量以学习具有相似范数的特征。然而,我们发现应用z分数归一化(ZN)对于FSL更简单但更有效。重要的是,我们有动力解决轮毂问题,而SEN没有。对于基于非元学习的FSL,几种方法[25,51]也采用I2归一化。他们仔细设计训练算法,在基类上预先训练他们的模型,然后在没有Meta学习的情况下,用很少的新类样本直接对它们进行微调。相比之下,我们表明预训练和元学习都可以从我们的ZN中受益,并且这两个步骤都可以带来更好的性能。此外,与我们最相关的工作是SimpleShot [54],我们有以下差异:(1)我们发现了FSL中存在的轮毂问题,并给出了理论分析,而SimpleShot没有。(2)我们提 出 通 过 基 于 分 析 采 用 ZN 来 解 决 轮 毂 问 题 , 而SimpleShot提出采用CL2N(即,中心L2归一化)而没有原因。(3)我们的选择ZN独立地在每个特征向量之上执行,其足够灵活以应用于预训练模型(参见表4)和基于元学习的方法两者;对于SimpleShot中的CL 2N,由于它通过在l2归一化之前减去整个训练集特征的平均值来转换测试样本特征,因此它只能用于预训练/训练模型,而不能集成到FSL,虽然基于度量的方法通常在高维嵌入空间中采用在本文中,我们不仅表明,枢纽确实存在于FSL,但也提供了一个z得分归一化的解决方案和理论分析,它是如何工作的。3. 方法3.1. 初步我们首先给出了一个正式的定义的少镜头学习(FSL)问题。 设b表示一组基类,n表示一组新类,其中bn=。然后,我们从b中给出一个大样本集b,从n中给出一个少次样本集n。n,以及也来自n的测试集,其中n=. 具体地,b= (Ii,yi)yib;i=l,2,… ,Nb,其中Ii表示第i个图像,yi是Ii的类别标签,并且Nb表示b中的图像的数量。类似地,K-shot(即, 每个新类仅具有K个标记图像)样本集n=(I i,yi)yin; i =1,2,…,Nn,其中N n= K n。因此,FSL的目标是通过利用丰富的基类样本集b和较少的镜头来预测测试图像的标签新类样本集最近的基于元学习的FSL方法大多采用情节训练策略,这意味着它们的模型在从b采样的多个基类分类元任务(或情节)上训练(即,只有B中的基类样本用于元训练)。然后,在从n随机采样的新类事件上评估学习的模型。具体地,为了形成N路K次Q查询片段e =,首先在元训练期间从b(或在元测试期间从η)随机采样包含N个类的子集。一个支撑装置=(I i,y i)y i;i= 1,2,,NK和一个查询集=(I i,y i)y i;i= 1,2,,NQ(=),然后通过分别从子集中的每个类采样K个支持和Q个查询图像来生成。我们采用原型网络(ProtoNet)[47]来引入枢纽问题并制定我们的解决方案。选择ProtoNet是因为它简单而有效,并且可以理解许多最近的SOTA FSL方法[2,59,63]。具体地说,ProtoNet首先通过计算每个类的支持样本的平均表示来获得N路K元训练过程。(4)ZN对列车试验一个pc=Σf(I)、⑴数据分布差距,而SimpleShot对它很敏感(请参阅我们在第4.3节中的分析)。Hubness问题在[34]中首次研究了hubness问题在此之前的工作之后,然后在零射击学习(ZSL)[43,6,62]和自然语言处理(NLP)[50,46,18]的背景下研究了中心度。领域的|(I,y)∈Sc|(I,y)∈Sc其中pc表示类c的原型、C=(I,y)y=c表示来自类c(c=K)的支持样本的集合,并且f是具有可学习参数的特征提取器,其输出维度为D(即,x= f(I)∈RD).对于Q中的每个查询图像I,ProtoNet145Σ×→∞∈C··Σ1”。,Σ∈····∈ΣΣ·Σ·x(zn)二、二我特里克斯设s=Var(a−u2)是以下的标准差=i=1= 0,(8)σx然后计算到所有类原型的距离,并基于softmax获得N个exp(−d(x,pc))(二)ψc(x)=Σc′∈C,x=f(I),exp(−d(x,pc′))其中ψc(x)表示x属于类c的概率(Cψ c(x)=1),且d:RDRD[0,+]是特征空间中的平方欧几里得距离。具体-在计算距离时,我们在所有实验中使用温度缩放技术,以便找到(a) Z分数归一化(b)12正常化度量的合适尺度d(x,pc)=x−pc2/T,(3)其中T是温度超参数。每个元训练的ProtoNet分类损失情节e然后被定义为每个查询样本的真类的负对数概率:图2. 3D空间中的z分数和12特征归一化的示例。蓝点是归一化之前1向量周围的样本,而红点是归一化之后的样本。黑点是坐标原点。其中<,>表示两个向量的点积。从这些计算中我们可以看出,z分数归一化Lfsl一个(e)=Σ−logψy(f(I))。(四)首先沿1向量投影原始特征向量|(I,y)∈Q|(I,y) ∈Q3.2. FSL的Z评分标准化如前所述, 全嵌入/度量学习一个包含原点且垂直的超平面u√lar至1。然后将这些向量缩放到相同的长度D,即,n√al正规化向量落在超球面半径为D(见图2(a))。基于FSL的方法容易出现中心问题,而嵌入网络中使用的BN是导致中心问题的原因之一。因此,我们建议使用z分数归一化来缓解hubness问题。具体地说,设xi(i=1,2,…,D)表示每个特征向量x∈RD的第i个分量.我们首先计算注意,由于我们独立地将z分数归一化应用于每个特征向量,因此仍然严格遵循非转导FSL设置一旦学习,利用由ProtoNet+ZN找到的最佳特征提取器f用ZN训练的ProtoNet),我们随机抽样多个元测试情节,然后评估这些D分量的平均值和标准差:在这些片段上学习的模型也在上面µx=DDi=11个Dxi,σx=Di=1(x i− µx)2.(五)由f获得的输出特征。3.3. 枢纽问题然后应用Z分数归一化为x(zn)= ZN(x)=x−µx1 RD,(6)σx其中1=[1, 1,…, 1]T是其分量全为1的D根据上述z分数特征归一化的定义,我们可以得到要显示应用z分数特征或-为了解决中心度问题,我们遵循[34,43]并明确研究了两种数据分布的中心度效应:正态分布和超球面上的分布。正态分布 设RD表示随机向量。在D维空间中,其每个通道独立地遵循正态分布预测u和方差v,即,aN(u,vI),其中”。ΣDx−µσxu=[u1,u2,·√··,uD]T且I∈RD×D是恒等式ma-=。、Di=1Di=11D(xi−µx)2(xi−µx)2D、(7)a和它的expec之间的差的平方范数其中Var()表示分布的变化考虑两个数据点a1和a2随机采样自N(u,vI),满足=xi−µx1标准差i=1a1−u其中γ是常数。 我们使用期望差∆ΣDxi−Dµx√X(x)2Di=1从1到2的平方欧几里德距离描述轮毂问题的效果,其中=1462我二、二不我2vv∼√∈∈−−12′′′′- Σa2-u2+E(a−u2)Σ二、二取样自:∆=E(a1−a2)−E(a2−a2)。(10)F或方程(1)中的每一项E(ai−a2)(i=1,2)(10),wehaveav eE(ai−a2)=E((ai−u)−(a−u))描述轮毂问题的效果,其中b也从b中采样:∆ ′=E(b1−b2)−E(b2−b2)。(15)F或方程(11)中的每一项E(bi−b2)(i=1,2)。(15),wehaveav eE(bi−b2)=E(bi2+b2−2bTb)=ai−u+E(a−u)−2(ai−u)E(a−u)=ai−u+E(a−u)。(11)我们可以得到∆=Σa1−u2+E(a−u2)Σ= 2(1 −bTE(b))。(十六)因此我们可以得到∆′ =2(1−bTE(b))−2(1−bTE(b))=− 2l [cos(b1,E(b))−cos(b2,E(b))]= −2 lγs。(十七)=a1− u2 − a2− u2 = γs。(十二)由于aN(u,vI),我们有ave√−uN(0,I),并且进一步a−u然后我们有我们可以从Eq中得出类似的结论(17)与分布均值具有高余弦相似性的此外,当1=0(即,E(b)成为坐标原点),则b1和b2都没有更大的机会成为枢纽。这验证了上述思想,使特征向量位于超球面上∆ =γs=γ。01-02 -02陈晓(a−uv零平均值有助于解决轮毂问题。同时,我们选择z分数特征归一化而不是= γ√v2·2 D =√2 Dγv.(十三)我们可以从Eq. 接近数据平均值的样本往往是中心点,因为如果γ >0,则随机采样的数据点预计更接近α2而不是α1的1u2一个2u2>0)。 该分析还表明,FSL中的中心性问题的影响可以通过减少对与数据均值的距离变化很大的支持样本进行采样的机会来在上述示例中,当对α1和α2进行采样时,减少了获得大γ因此,一个自然的想法是使坐标的原点成为数据均值,然后使所有特征向量的范数相同。接下来,我们讨论了单位超球面上的数据分布的hubness问题。Hypersphere上的分布。在不失一般性的情况下,我们考虑单位超球面,因为半径不改变数据点的相对位置。设bRD表示D维单位超球面上期望为E(b)的随机向量.注意,E(b)不一定位于超球面的表面上,即,其范数l=E(b)[0,1]。 设s′=Var(cos(b,E(b)是b与其期望值之间的余弦相似度的标准差考虑从b随机采样的两个数据点b1和b2,满足cos(b1,E(b))−cos(b2,E(b))=γ′s′,(14)其中γ’是常数。我们仍然使用从b1到b2的平方欧几里德距离之间的期望)147×个直接l2归一化,因为前者提取数据意味着比后者更接近原点(见图2)。4. 实验4.1. 数据集和设置数据集。我们选择三个广泛使用的基准测试:(1)miniImageNet [52]:它由ILSVRC-12 [ 38 ]中的100个类(每个类600个图像)组成。我们采用[35]的拆分设置:64个基类,16个验证类和20个新类。(2)分层ImageNet[37]:这是ILSVRC-12的一个更大的子集,总共包含608个类和779,165个图像。我们将其分为351个基类,97个验证类和160个新类,如[37]所示(3)CUB-200- 2011 Birds(CUB)[53]:CUB是一个细粒度的鸟类数据集,共有200个鸟类类别和11,788张图像。我们遵循[59]并将数据集分为100个基类,50个验证类和50个新类。将三个数据集的所有图像的大小调整为84 84。评价方案。我们在5路5-shot/1-shot设置下测试学习的模型。具体地,每个片段具有从测试分割中随机采样的5个类,其中每个类由5个镜头(或1个镜头)和15个查询组成因此,对于所有元测试事件,我们具有N=5,K=5或1,并且Q=15。当应用z分数归一化时,尽管所有特征向量(即,支持样本和查询样本两者的那些)在元训练和元测试两者期间被变换,它们被独立地归一化。这意味着元测试过程仍然严格遵循148--← ⊙⊙∈∈非转导设置。我们报告了来自新类别的2,000个事件的平均5向少数镜头分类准确度(%,前1)以及95%置信区间。骨干我们采用Conv 4 -64 [52],Conv 4 -512和ResNet-12 [14]作为特征提取器,以便与已发表的结果进行公平比较。Conv 4 -64和Conv 4 -512都由四个卷积块组成,每个块包含一个卷积层、一个批量归一化层、一个ReLU激活层和一个最大池化层。Conv 4 -64和Conv 4 -512的四个卷积层的通道号分别为64-64 - 64-64和64 - 64 -64-512。在四个块之后还采用全局池化层,从而分别产生Conv 4 -64和Conv 4 -512的输出特征维度64和512。ResNet- 12也由四个块组成,每个块中有三个卷积层,块之间有残差连接。ResNet-12的输出维度为640。实施详情。我们在每个数据集的训练分割上预训练所有三个骨干,以根据常见实践加速训练过程[61,59,44]。对于Conv 4 -64和Conv 4 -512,我们采用Adam优化器[17]初始学习率为1 e-4。 对于ResNet-在图12中,采用随机梯度下降(SGD)优化器,初始学习率为1 e-4,权重衰减为5e-4,Nesterov动量为0.9。在所有实验中,学习率每20个epoch减半。等式(1)中的缩放超参数T(3)根据验证性能选自16、32、 64、 128、256。当在实验中的情景训练期间应用ZN时,我们还采用逐元素仿射变换,即,x(zn)x(zn)ω+β,其中表示元素乘法,以及ωRD和β研发分别是可学习的权重和偏置参数4.2. 主要结果请注意,我们可以采用任何基于度量的FSL方法作为基线。不失一般性,我们将z分数特征归一化应用于三种经典/最先进的FSL方法:[47],[48],[49]。特别地,为了简单的实现,我们仅使用主模块(即,来自原始图像的四个特征向量和三个增强的特征向量的级联,用IEPT的t)在采用ZN之后,每个FSL模型因此以后缀“+ZN”命名为了公平比较,我们重新实现了Pro-toNet,IMP和IEPT†,也采用了不同主干的温度缩放技术。三个数据集的比较结果分别示于表1、表2和表3中。使用相同主干的模型我们可以做以下观察:(1)z分数特征归一化增强了各种基于度量的FSL方法。具体而言,通过使用四十八70 ±1。84四十八24 ±0。7555. 22 ±0。8452岁84 ±0。7651岁80 ±0。4455. 16 ±0。44五十七83±0。4550块86± 0。5767 32 ±0。4456.第56章:你是谁?02± 0. 四六七四00 ±0。3556.第56章:你是谁?27± 0。四三七四30 ±0。33[47]第四十七章:你是我的女人73± 0。45 7306 ±0. 3652.第52章我的世界58± 0。四十五七十二29 ±0。36[63]第五十五章. 40± 0。457429 ±0。3556.第五十六章大结局63± 0。4573 90 ±0。3554.第五十四章:你是谁76± 0。四十五七十二47 ±0。3657.第五十七章大结局76± 0。四十五七十五11± 0。35[30]第58话. 50± 0。30 7670 ±0。38[19]第62话. 64± 0。617863 ±0。4661.第48章:你是谁20± 1。807550 ±0。80[57]65.第五十五章:你是谁?21±0。497520 ±0。36[36]第59话. 04± 0. 4377 64 ±0。39[25]第63话. 85± 0。818157 ±0。56[51]第64话. 82± 0。60 8214 ±0。4364.第四十四章:你是我的女人60± 0。七二七九51 ±0。50[61]第六十一章:一个女人91± 0。8282. 41 ±0。56[59]第五十九章:一个女人78± 0。208205 ±0. 1463.第四十七章:你是谁38± 0。458122 ±0。3063.第六十三章大结局70± 0。4780 55 ±0。30[63]第六十三章:你是我的女人05±0. 4482 73 ±0。2966.第六十六章大结局06± 0.四四八一73 ±0。3065.第六十五章大结局01± 0. 四三八十一72 ±0。3067.第六十七章大结局35± 0。四三八三04± 0. 29表1.标准FSL在miniImageNet上的比较结果。报告了平均5向少次分类准确度(%,前1)以及95%置信区间ZN比不含ZN的原始版本的范围为0.2%- 百分之五点三这清楚地验证了ZN对于基于度量的FSL的普遍适用性。(2)采用ZN在1次注射设置下获得的改善(1.3% -一个合理的解释是:具有较少支持样本的分类任务更可能遭受中心问题,ZN旨在减轻这种负面方法骨干5路1拍五向五射MatchingNet [52]MAML [8][49]第四十九话基线++[5]DN4 [23]PARN [56]质心[1]负余弦[25][59]第59话Conv4-64Conv4-64 Conv4-64Conv4-64 Conv4- 64四十三56 ±0。8450块40 ±0。8051岁24 ±0。74五十三14 ±1。0655. 15 ±0。2055. 31 ±0。7363岁10 ±0。92六十五30 ±0。7066岁。43 ±0。63七十一02 ±0.64七十一55 ±0。66七十一45 ±0。72七十41 ±0。66七十一61 ±0。16ProtoNet [47]IMP [2]IEPT† +ZNConv4-64Conv4-五十三01 ±0.45七十一10 ±0。36七十09 ±0. 36七十三。76±0。34七十一78 ±0。36七十66 ±0。3674岁88±0。34149影响,从而在问题更严重时获得更好的性能。(3)由ZN增强的方法在所有设置下在所有三个数据集上实现最佳结果。特别是,像ProtoNet+ZN这样简单的方法已经可以与最先进的方法相媲美,进一步证明了ZN的有效性。(4)Baseline++ [5]、Neg- Cosine [25]和Distill [51]声称只有在基类上进行预训练(即,元训练是不需要的)是重新-150NNNK五十四48± 0。937132±0。七十八52岁33± 0。四十八七十二62 ±0。41五十六70± 0。4973. 34±0。40五十七76±0。49 74. 90±0。40五十四69± 0。5972 71±0。四十三个55. 62± 0。4973. 94 ±0。40五十八93± 0。4876 27±0。38五十九28±0。48 77. 34±0。38[19]第65话. 99± 0。七二八十一56 ±0。63[48]第四十八章:一个女人62± 1。8080 61 ±0。90[57]67.第五十七话23± 0。347895 ±0。22[36]第三十六章:一个女人87± 0 .01,P <0.05。四三 八二64 ±0。43[51]第71话. 52± 0。六九八十六03 ±0. 4967.第四十四章:你是我的女人39± 0。8282. 85 ±0。56[61 ]第61话:一个女人16± 0。八七八六03 ±0. 58[59]第70章:你是谁?80± 0。238479 ±0。1669.第四十七章:你是谁36± 0。528580±0。3565.第65章大结局65± 0。518328±0。35[63]第六十九章. 66± 0。528641±0。3471 .第71章大结局98± 0。518642±0。3467.第六十七章大结局58± 0。518394 ±0。3555. 92 ±0。9568岁87 ±0 . 01,P <0.05。2267岁90 ±0。49七十一30 ±0。49七十三。54±0。48报告了95%置信区间1个5四十九91± 0。 四四六九73 ±0。36五十三21± 0。 四四六九84 ±0。36L52岁21± 0。四六六九53 ±0。42五十三76±0。4770 82±0。4272.第72章大结局28± 0。518720± 0。34表2.标准FSL在分层ImageNet上的比较结果。报告了平均5向少次分类准确度(%,前1)以及95%置信区间表4.在两个基准上对预训练模型的替代归一化操作的比较结果。报告了平均5向少次分类准确度(%,前1)以及显示…的问。 我们的研究结果表明,与ZN,甚至Pro-hubness,偏度S(h)和SN1(h)报告。N5toNet+ZN的性能优于所有这些(除了在miniImageNet上的5次拍摄下的Distill这表明元训练对于FSL。4.3. 与替代规范化的我们在表4和表5中分别基于预训练为了显示中心度的影响,我们还报告了K分布N(h)(k=1, 5),定义为:64类分类),并在验证集上验证为多路少数镜头分类(例如,16-小ImageNet的少镜头分类)。 我们将ZN与直接使用预训练模型(表示为“无”)和三种替代的归一化方式进行比较:(1)12:12归一化。(2)CS12(在12之前以支持平均值为中心):对于片段中的每个特征向量,通过在应用12归一化之前减去所有支持特征的平均值来对其进行中心化。由于它只能在每个情节内使用,因此我们不能基于下式计算S(h):KS(h)=K方法骨干5路1拍五向五射方法骨干5路1拍五向五射MAML [8][47]第四十七话:一个人IMP [2]Conv4-64Conv4-64Conv4 -6451岁67 ±1。81五十三56 ±0。48七十30 ±0。08七十二52 ±0。41MatchingNet [52]MAML [8][49]第四十九话[59]第59话Conv4-64Conv4-64 Conv4-6461岁16 ±0。8962. 45 ±0。98七十二86 ±0。70七十二09 ±0.76七十六。11±0。6982岁90 ±0。15IEPT† [63]ProtoNet+ZNIMP+ZNIEPT† +ZNConv4-64Conv4 -64Conv4-64五十四76 ±0。48五十六65 ±0。4974岁12 ±0。40七十三。61±0。41ProtoNet [47]IMP [2]IEPT† [63]ProtoNet+ZNConv4-64Conv4-64Conv4 -6468岁00 ±0。5168岁27 ±0。5184. 41 ±0。3284. 81 ±0。31八十五30 ±0。32八十五35 ±0。32MAML [8][49]第四十九话Conv4-512Conv4-51252岁84 ±0。56七十91 ±0。46IMP+ZNIEPT† +ZNConv4-64Conv4-64七十一22±0。48八十五51 ±0。3187岁82±0。30miniImageNet:没有一L2四十九89±0。4469岁。54±0。373.2193.0873.2593.141CSl2美国[54]52岁07 ±0. 4452岁80 ±0。4469岁。74±0。36七十19±0。36/2.3222.360/2.3372.411分层ImageNet:没有一51岁12 ±0。4769岁。26±0。422.7022.4152.8122.5882CSl251岁92 ±0。47七十44 ±0。42/2.2.072/2.2.093151KNN(h)kNkKNkE(N(h)−µ(h))3σ3、(十八)整个测试集。 (3)[54]第五十四话: 每个试验FEa-通过在L2归一化之前减去整个训练集的平均值来归一化真实向量。我们可以-(h)K其中N(h)是k-出现次数的分布,µ(h)K是(1)与“无”相比,所有归一化都有助于改善FSL结果并减轻轮毂问题的影响,1个5N(h)的平均值,σ偏度S(h)是N(h)的标准偏差,以及K 是N(h)的三阶矩。变小。这表明缓解轮毂问题有助于FSL。(2)ZN达到最佳的再生效果。在所有评估指标方面对分层ImageNet的结果NKK对于表4中的实验,我们对每个数据集上的所有方法使用相同的预训练模型,其在训练集上训练为常规分类任务(例如,并 且 非 常 接 近 迷 你 ImageNet 上 的 SimpleShot 。 Sim-pleShot在miniImageNet上表现更好,因为它将测试特征与训练集均值和训练-测试间隙放在一起NN152NN5方法1-注射Acc.5-shot Acc.S(h)1S(h)5miniImageNet:ProtoNet+Ring [28]五十三22± 0。 四四七一53 ± 0。352.856 2.916[28]第五十三章. 38± 0。4571 06 ± 0. 352.698 2.809[47]第四十七章:一个女人01± 0. 4571 10 ± 0。362.914 2.88453.第五十三章99± 0。4571 50 ± 0。352.743 2.87753.第五十三章93± 0。4371 32± 0。35//55 .第55章大结局16±0。44七十一78±0。362.572 2.565分层ImageNet:ProtoNet+Ring [28]五十三47± 0。四十八七十二66 ± 0。413.003 3.134[28]第五十三章. 10± 0。4871 86 ± 0。413.035 3.220[47]第四十七章:一个女人56± 0。四十八 七十二52 ± 0。412.937 3.04555.第55章我的世界13± 0。4972. 98 ± 0。402.787 2.93155.第55章大结局39± 0。4772 92± 0。40//56 .第56章意外70±0。49七十三。34±0。402.203 2.312表5.替代标准化操作的比较结果在两个基准上进行情景训练。报告了平均5向少次分类准确度(%,前1)以及95%置信区间。为了显示枢纽的作用-度,偏度S(h)和SN1(h)报告。N5对于迷你ImageNet,ZN的值小于分层ImageNet的值,而ZN对训练-测试间隙不敏感。这也验证了我们在3.3节中的想法,即当数据集均值可以准确估计时,在归一化之前居中可能会有所帮助。(3)CS12也执行定心,但结果不如ZN好。这是因为支撑装置不够可靠,尤其是在较少的发射情况下。对于表5中的实验,我们使用不同的归一化进行情景这里不采用SimpleShot,因为它不能集成到元训练过 程 中 。 我 们 比 较 两 种 其 他 方 法 : ( 1 ) Pro-toNet+Ring [28]采用额外的Ring损失[64]来明确地约束除了标准ProtoNet FSL损失之外的特征向量的范数;(2)SEN [28]修改了欧氏距离度量,以学习具有相似范数的特征。 从表5可以观察到,ZN也能够帮助情景训练过程,并且ProtoNet+ZN始终击败所有比较方法。4.4. 可视化结果为了观察hubness对具有多个类/聚类的数据的影响,我们在图3中可视化样本之间的k=5的kNN关系。具体来说,我们首先从miniImageNet的测试分割中随机抽取两个子集(对应于图3中的两行),每个子集包含5个类,总共250个样本。 对于每个子集,我们分别用ProtoNet(左)和ProtoNet+ZN(右)可视化两个k NN矩阵。 在每个矩阵中,两个轴都表示样品的ID。如果第i个样本在第j个样本的5个最近邻居中,则在坐标(i,j)处绘制点(即,每行中正好有5个点点的颜色指示第i个样本的N(h)值,并且较深的颜色表示较高的值。 由于我们按类对样本进行排序,因此理想情况是每个类的k个最近邻都是最小的。图3. 迷你ImageNet测试集的两个子集(对应于两行)上的k个NN矩阵的可视化。每个子集包含5个随机采样的类,每个类中有50个样本。左栏中的子图是ProtoNet的结果,而右栏中的子图是ProtoNet+ZN的结果。采用Conv 4 -64样本仅是来自相同类别的那些,即,只有对角块被着色。我们可以从左列看到,存在深色的垂直线,其对应于出现在许多其他样本的5个最近邻中的枢纽,即使是不属于与枢纽相同类别的那些样本。这种集线器的存在明显损害分类性能。相反,ProtoNet+ZN的k个NN矩阵(在右列中)在非对角线区域中更干净,并且长垂直线消失。这证明了ZN能够解决FSL的轮毂问题。5. 结论本文通过理论分析,发现了FSL中存在的轮毂问题,找出了产生轮毂问题的原因,并提出了解决轮毂影响的方法。具体来说,我们建议应用z分数特征归一化,这是简单而有效的缓解枢纽问题。我们通过大量的实验和可视化来验证其有效性。它也被证明是普遍适用的,提高了各种基于度量的FSL方法的性能。本工 作 得 到 国 家 自 然 科 学 基 金 ( 61976220 和61832017 ) 、 北 京 市 杰 出 青 年 科 学 家 计 划(BJJWZYJH 012019100020098)和中国科学
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 探索数据转换实验平台在设备装置中的应用
- 使用git-log-to-tikz.py将Git日志转换为TIKZ图形
- 小栗子源码2.9.3版本发布
- 使用Tinder-Hack-Client实现Tinder API交互
- Android Studio新模板:个性化Material Design导航抽屉
- React API分页模块:数据获取与页面管理
- C语言实现顺序表的动态分配方法
- 光催化分解水产氢固溶体催化剂制备技术揭秘
- VS2013环境下tinyxml库的32位与64位编译指南
- 网易云歌词情感分析系统实现与架构
- React应用展示GitHub用户详细信息及项目分析
- LayUI2.1.6帮助文档API功能详解
- 全栈开发实现的chatgpt应用可打包小程序/H5/App
- C++实现顺序表的动态内存分配技术
- Java制作水果格斗游戏:策略与随机性的结合
- 基于若依框架的后台管理系统开发实例解析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功