没有合适的资源?快使用搜索试试~ 我知道了~
9078EASE:无监督判别子空间学习的转导少镜头学习Hao Zhu<$,§,Piotr Koniusz*,§,<$†澳大利亚国立大学§Data 61/CSIROallenhaozhu@gmail.com,firstname. anu.edu.au摘要小样本学习(FSL)由于其适应新类的能力而受到广泛关注。尽管已经提出了许多用于FSL的技术,但它们大多集中在改进FSL骨干。一些作品还专注于在生成的特征之上进行学习让他们适应新的课程我们提出了一个无监督的判别子空间lEarning(EASE),通过学习一个线性投影到一个子空间上,该子空间是在测试时间内从支持集和未标记查询集具体地说,基于支持集和未标记查询集,基于结构先验为EASE方法生成相似性矩阵和相异性矩阵,并利用奇异值分解有效 地 解 决 了 该 问 题 . 我 们 还 介 绍 了 conStraInedwAsserstein MEan Shift clustEring(SIAMESE),它通过 合并 标 记的 支 持 样本 来 扩展 Sinkhorn K-means 。SIAMESE使用从EASE获得的特征来估计类中心和查询预 测 。 在 mini-ImageNet 、 tiered-ImageNet 、 CIFAR-FS、CUB和OpenMIC基准测试中,这两个步骤都显著提高了转换FSL和半监督FSL的性能。1. 介绍由于更大的数据集和深度卷积架构的快速发展,有监督的端到端学习在计算机视觉、语音和机器翻译任务中非常重要然而,在当前的学习范式中,有限的数据是训练足够好的推理模型的障碍。在许多任务中,注释可能是稀缺的或获得成本高的,因为注释过程可能需要专业知识(例如,医学图像与疾病的关联)。* 通 讯 作 者 。 代码: https : //github。com/allenhaochu/EASE与深度学习中对大数据的需求相反,人类从一些例子中学习新的对象。受生物视觉能力的启发,研究人员提出了少量学习(FSL)[5]。 FSL算法可以大致分为三类:度量学习、元学习和迁移学习。基于度量的学习方法的目标是学习从图像到嵌入空间的映射,在该嵌入空间中,相同类别的图像彼此更接近,而不同类别的图像被分开。 我们期望这个属性应用到以前没有见过的类。Meta-学习的任务是解决一个单独的任务特定的优化,可以很容易地适应新的任务,而不会过度拟合。迁移学习包括在第一阶段预训练特征提取器,然后学习重用这些知识以获得新样本的分类器。最近的几项研究[4,9,10,15,26,31]探索了少数任务的反推推理在测试时,trans-ductive few-shot方法对任务的所有未标记查询样本联合执行类标签推理,而不是像归纳推理那样一次一个样本[17,25,38,40,52因此,转导少数拍摄方法通常比他们的感应同行更好地执行。 直推式FSL方法的核心思想是通过伪标签或相似性度量将查询集和支持集连接起来,高斯核然而,这样的方法忽略了支持集和查询集中的数据点之间的潜在结构。在本文中,我们认为,在推理步骤中的功能,可以近似地从一个联盟的多个子空间,因此样本的亲和矩阵遵循块对角先验。基于此先验,我们基于具有低秩表示的子空间聚类为每个任务中的所有样本生成相似性矩阵,而不是测量支持集或查询集中的样本之间的欧几里得距离。通过构造一个具有简单假设的相异度矩阵,我们学习了一个线性投影,通过一个封闭形式的解决方案来最大化相似性和最小化相异度。此外,我们通过使用未标记的方法来细化每个类的均值,从而提高了最终性能。9079数据在实验中,我们的模型比最先进的方法有显著的优势,在不同的设置、数据集和训练模型中始终如一地提供改进。此外,我们的转换推理非常快,运行时间接近归纳推理的运行时间,并且可以用于大规模任务。我们的贡献如下:i. 我们提出了一个假设,即在推理步骤中的特征可以近似地从多个子空间的并集中提取,因此其相似性矩阵遵循块对角先验。ii. 我 们 提 出 了 一 个 无 监 督 的 判 别 子 空 间 lEarning(EASE),它能够通过最大化类间距离和最小化类内距离来学习判别子空间,类似于图节点嵌入中的正负采样。iii. 作为一个小小的贡献,我们提出了约束wAssersteinMEan转移clustEring(SIAMESE),它通过将支持集的标签扩展了Sinkhorn K-means。SIAMESE使用EASE的特性来估计类中心和查询预测。2. 相关工作少镜头分类。大多数少数方法都基于元学习范式[32,40,43],它们依赖于情景学习来执行训练和测试。我们的目标是学习一个模型,该模型可以有效地适应具有新类别的新任务,并给出一些标记样本。方法[2,44]表明,元训练对于学习少量学习的良好特征是不相反,他们训练了一个典型的分类网络,它有两个部分:特征提取器和分类头。其次,他们通过使用基类数据的标准训练来学习基础网络,并将其与最近邻分类器一起用于新类的样本。在本文中,我们的注意力不是如何从基类样本中学习更好的主干,而是如何设计推理阶段并在给定现有主干的情况下提高其在转导和半监督设置中的性能基于公制的FSL。度量学习方法通常使用事件[26,40]进行训练,其特征在于在特征空间上学习的相似性分类器。它们专注于学习高质量和可转移的功能,并具有跨任务通用的神经网络主干。例如,匹配网络[43]使用端到端可训练的k-最近邻算法对少量标记样本(支持集)的学习嵌入进行预测,以预测未标记样本(查询集)的类别,而原型网络[40]进一步构建类前原型表示。最近,Sunget al.提出了关系网络[41],它通过以下方式学习非线性距离度量简单的神经网络代替使用固定的线性距离度量(例如,余弦或欧几里得。这些方法使用小批量的情节来训练端到端网络,假设训练特征将代表新的测试类。我们的动机是不同的,从这样的方法,我们采用度量学习的特征空间在测试阶段(新类),找到一个判别子空间分类。此外,我们的方法是不受监督的。这使得它即使在单镜头设置下也能很好地工作基于图形的FSL。人们可以将这个家族视为度量学习的特殊情况,因为大多数基于图的FSL方法通过在标签或特征的传播中使用的基于RBF的邻接矩阵形成图Satorras等人[37]通过在支持集和未标记数据之间建立亲和矩阵来传播标记。wDAE- GNN [7]使用图神经网络(GNN)生成分类权重嵌入传播[34]不仅传播标签,还考虑传播嵌入以减少类内距离。集合到集合函数也被用于嵌入的自适应[49],其中GCN也被用于形成集合到集合函数的实例然而,与基于GNN的方法不同我们的方法是基于块对角先验估计给定样本的相似性矩阵(图)。具体来说,我们采用了一个自我表示与低秩约束。我们学习了一个线性投影的基础上的图嵌入框架的相似性(和相异性)矩阵,然后投影功能的子空间,以提高FSL性能的转换设置。Transductive Few-shot Learning 和 Semi-SupervisedFew-Shot Learning。FSL中最常见的设置是感应设置。在这种情况下,只有支持集中的样本可以用于微调模型或学习查询标签推理的函数。 与此相反,在转换场景中,模型可以访问所有需要分类的查询数据(未标记)在[4]中,查询样本与熵最小化一起用于微调,以最大化其预测的确定性。标签传播[26]和嵌入传播也用于表示学习,如元学习[34]。Lichelman等人[23]请注意,在基类上预先训练的模型不能非常有效地表示新类。出于这个原因,他们使用PCA或ICA来提取更好的质量特征,用于进一步的分类任务。尽管PCA和ICA能够提高分类性能,但它们并没有被设计为通过判别准则步骤以判别方式起作用。在半监督FSL [22,26,33,39]中,除了支持集之外,还提供了未标记的数据,并且假定其具有与目标类相似的分布9080i=1⊂∈∈ {···Σ×→--图1. 说明我们的方法为转导少数拍摄学习。 使用预训练的CNN提取图像特征。然后这些特征被用来建立相似性和不相似性(邻接)矩阵。 基于这些矩阵,我们通过最小化EASE目标来学习线性投影,以考虑结构先验。SIAMESE处理从EASE投影步骤获得的特征,以估计类中心和查询的预测SIAMESE使用带标签的标记样本和未标记样本。(尽管也可能包括一些不相关的噪声样本)。在LST[22]中,自标记和软注意机制间歇性地用于未标记样本,并对标记和自标记数据进行微调。与LST类似,Renet al. [33]使用由PN原型类型初始化的K均值迭代来更新类原型类型。他们的方法还包括对未标记数据中的潜在干扰项样本(可能不属于目标类)进行降权。Simon等人[39]通过软标签传播使用未标记的示例。Saito等人[36]研究半监督少镜头自适应问题。在[15,26,37]中,图神经网络用于在半监督FSL设置[26,37]中共享标记和未标记样本之间的信息。在[26]中,采用图构造网络来预测用于在半监督FSL任务的样本之间传播标签的任务特定图。Liu等[25]认为在原型表征和期望表征之间存在偏差,并提供了一个简单的策略来纠正基于类内和类间假设的偏差。在本文中,我们提出了一个联合国-化以构造具有结构先验的相似性矩阵。给定任务T和来自特征提取器的特征,我们通过低秩表示应用子空间聚类来获得相似性矩阵。最后,我们将类中心的估计和查询预测重新表述为一个确定的wAsserstein MEanShift clustEring(SIAMESE),它通过使用带有标签的标记样本和未标记样本扩展了Sinkhorn K-means [11,12],并对EASE的特征进行处理。图1说明了我们的方法。3.1. 模型描述在少镜头分类中,我们给出了一个小的K类支持集,每个类有N个标记的例子,S=(xi,yi)L其中每个xi是原始图像,yi1、,K是相应的标签。 此外,Sk S是标记为类k的示例的集合。Pro-totypical networks [40]计算M维表示CRO,或原型,通过一个带有可学习参数θ的嵌入函数f θ。 每个原型是属于其类的嵌入支撑点的平均向量:一种用于少量学习的监督度量学习方法,学习一个判别子空间,它可以将相似特征拉得更近,同时将不相似特征推得更远克1=|SK|fθ(xi,yi)∈Sk(xi)。(一)在测试时间内互相交流我们的框架与转换式和半监督式少数镜头学习兼容。3. 方法在本节中,我们介绍了我们的无监督判别蚂蚁子空间学习(EASE)方法,并解释了它的细节。首先,我们用原型网络中的分类器定义我们的模型[40]。其次,我们提出了如何学习一个判别子空间给定的相似性和dissimilarity矩阵,我们解释了我们的假设的相异度矩阵。第三,我们演示了如何使用所谓的自我表示与低秩正则-给定一个距离函数d:ROR+,原-典型的网络使用最近类均值(NCM)分类器来预测查询点x在嵌入空间中到原型的距离上的标签:k≠argmind(fθ(x),c≠k).(二)K然而,在测试时,很难用少量的测试样本可靠地更新主干的参数θ因此,给定任务T,可以定义一个线性投影W∈RO×O'(O′O)并将其插入等式(1)。(2),导致:k∈ k=argmind(Wfθ(x),Wc∈k).(三)K9081−−×−2−ǁ −ǁi=1−A. 我们说明如何得到A和A带边支撑集S={(xi,yi)}L−(|Zi j|+的|Z·J·I|)/2来度量xi和Σ--其中W是在给定任务T的测试时间期间学习的可学习正交矩阵。为了学习W,许多度量学习方法使用相对或绝对相似性约束,即,成对或基于三联体的方法。图像的三元组可以被定义为(fθ(xi),fθ(xj),fθ(xj')),其中fθ(xi),fθ(xj)和fθ(xj')对应于锚点xi,锚点xj和锚点xj'的特征向量。 此外,xi和xj共享类似的类标签,而x j'应该具有与锚的类标签不同的类标签。 对应于图像对(xi,xj)的一对图像特征被表示为(f θ(xi),f θ(xj))。 如果两个图像共享相同的标签,则其被称为正对,否则为负对。然而,基于三重态的损失也受到测试阶段中样本数量少的对于5路1次设置,很难最小化类内距离,因为每个类只有一个样本可用。单独最大化类间相似性不能解决类内距离通常大于类间距离的问题。其中Asim和Adis是具有相反效果的两个不同测量。因此,我们引入参数α >0来平衡这两项的影响,我们得到:Wθ=argminWfθ(X)T(αA)A(x)fθ(X)WT.WTW=I(六)通过选择fθ(X)T(A_∞sim)的前k个(而不是后k个)特征向量,αAdi s)fθ(X)(所谓的广义特征值问题)。相异性矩阵。虽然人们可能会设计一个线性投影的基础上的相似性关系,我们使用的相异性信息和相似性矩阵学习线性投影。直观地说,给定一个K路N-shot任务,每个类有B个查询,我们的目标是一个(N+B)K路1-shot问题,其中非对角线条目可以被假设为表示不同的实体(对角线上的条目表示相同的实体)。因此,我们形成一个不相似矩阵作为稠密连接图的邻接矩阵:类的。因此,采用常规度量学习少量学习似乎是有限的,因为在一个片段的测试阶段没有一个分遣队=1eeTI,(7)(N+B)K在下面的部分中,我们提出了一种新的非监督判别子空间学习的转导少杆学习,它不需要任何标签信息。由于我们在每个任务的支持集中只有少数带有标签的样本,因此我们使用了具有许多样本的查询集(不带标签)。如果每集的标记样本数量不足,我们将度量学习问题转化为图嵌入问题,然后使用相似性和不相似性度量作为标签信息的替代。3.2. 无监督判别子空间学习下面,我们提出了我们的无监督判别子空间学习(EASE)。人们可以学习方程的线性投影函数。(3)通过最大化相似特征之间的相似性和最小化不相似特征之间的不相似性。给定映射fθ,i=1 和查询集其中e是((N+B)K)维全一向量,I是单位矩阵。我们将在后面讨论相异度矩阵和PCA相似矩阵。为了测量样本对之间的相似性,必须选择在FSL设置中表现良好的距离(或相似性度量的典型选择是RBF函数Z ij=exp(f θ(xi))f θ(xj)2/σ),σ >0,但是单独的RBF函数不能捕获数据的结构。在本文中,我们声称,对于K路少数-在镜头学习任务中,期望的相似度矩阵应该是一个K块对角矩阵,如图1所示。然而,基于径向基函数核的相似度矩阵没有块对角结构.低秩表示(LRR)[24]将每个数据点xi表示为其他点的线性组合,xi=j iZijxj,并使用表示系数Q=xL+iU,我们在支持集中组合xi,查询集为X=[x1,...,xL+U]T,并将EASE定义为:W= arg minWfθ(X)T(LsimLdis)fθ(X)WT,(4)WTW=Ixj. LRR考虑了数据的相关结构,并且找到低秩表示而不是稀疏表示。在本文中,LRR被应用于以下秩最小化问题:arg min<$fθ(X)−fθ(X)Z<$2S.T. rank(Z)=K。(八)其中LSIM=I−ASIM和Ldis =I−Adis. 设ZFD−1/2AD−1/2=A且D=diag(d1,···,dL+N),其中伊吉 伊吉辛迪斯当量(8)分两个阶段求解:1)Z=VTV,其中V是在文本的后面。为L SIM−Ldis =Adis−ASIM,我们得到:从fθ(X)=U <$VT的skinny SVD得到; 2)对于V的每一行,只保持top-K绝对最大W=argminWfθ(X)T(AdisAsim)fθ(X)WT,WTW=I(五)的条目。给定特征矩阵fθ(X),我们通过求解等式(1)获得表示矩阵Z(八)、相似性矩阵被定义为Wsim=|Z|-diag(|Z|)的情况。9082Σ2ΣΣ←i=1←−|2ǁ −ǁ∈θθ(N+B)K(九)|SK|r=1,c=(N+B)1我我ΣP,C2--与PCA的关系通过PCA,人们寻求具有最大方差的投影方向,类似于我们下面的问题:wf=argmaxwf(X)T.I−1eeTf(X)wT.wTw=1算法一:约束Wasserstein均值漂移聚类(SIAMESE)。参数:H、Y、L、B、N、λ、α、n步、λ:(h,y)∈SK hi,我们注意到f θ(X) TAdisf θ(X)是给定f θ(X)的负协方差矩阵。 由于Adis的每一行或每一列都是e或eT,我们有D−1/2AdisD−1/2=1Adis。而k n步做Mij=<$hi−c<$j<$2,<$i,j;P=exp(−λM);(N+B)KP=P/N i、jPij;u=0L+U;而max(|u −P ij|)>u=JPij;3.3. 受约束的Asserstein均值偏移聚类(SIAMESE)在归纳FSL的情况下,对每个样本独立地执行预测,并且因此平均向量仅取决于N个标记的样本的支持集,如等式(1)所示。 (1),当给定嵌入特征时,它是固定的。然而,在转换FSL的情况下,执行包括所有查询Q=XL+iU的预测。仅考虑支持集来估计类均值并不能充分利用查询[58]。 我们将来自S和Q的所有例子嵌入到H=fθ(X)WT中,其中H=[h1,.,hL+U]T∈P=diag(r/u)P;P=Pdiag(c/ iPij);P1:L=Y1:L;端N=PTH/(N+B);C˜C˜ + α(ΩC˜) ;k k+1端returnyi=arg maxjPi,j这个问题的最优解产生距离dM(r,c)。然后我们可以用PTH/(N+B)来更新C。通过交替优化C和P,我们在P处进行了优化,查询的预测“可能性”。基于Sinkhorn算法[3],我们给出了在Alg.1.一、注意,Y∈R(L+U)×K包含独热编码标签R(L+U)×O'.可以通过最小化以下各项来使用查询集minPi,khi−ck2,s.t. P·1=1且Pi,k≥0,(10)i,k用于预置P,即P1:L=Y1:L。通过在P∈R(L+U)×K和C∈RK×O'之间交替,其中C=[c]1,.,c[K]T 是通过加权-对支持集和查询集与它们对于类k的分配部分进行平均,而Pik是第i个样本w的权重。r. t. 第k个中心ck(认为条件概率p(yi=khi))。 我们注意到,可以使用均值漂移算法[23]来估计Pik,然后更新中心Cik。然而,Eq。(10)忽略另一个约束1TP = 1,它平衡了K个类之间的类分布[20]。因此,我们重新制定Eq。 (10)在 给定的C_∞ 下 , 使 H_∞ 和C_∞之间的最佳传输距离最小化 。G 表 示 成 本 矩 阵 MR ( L+U ) ×K 和Mik=hic≠k2,使用 传输矩 阵(或 联合概 率)P 将r=1L+U映射到c =(N + B)1K的成本可以量化为:4. 实验我们在四个少数分类基准上评估了我们的方法,mini-ImageNet [43],tiered-ImageNet [33],CUB [46]、CIFAR-FS [2,18]和OpenMIC [16,17],使用在转导和半监督FSL作品[15,26,31,dM(r,c)=minP∈U(r,c)Mr.Pagarat,s.t. P1:L= Y1:L其中(十一)33、39]。在这些基准测试中,我们使用标准的评估协议。转导和半-理论解释。当量(6)可以被视为使用两个不同的损失函数,一个保持相似性,另一个保持最大方差。这类似于图节点嵌入中的正采样策略和负采样策略[28,47,56,57],后一种策略类似于所谓的负稠密图,例如,由链路节点上的均匀节点采样形成。SIAMESEvs. Sinkhorn K-means [12]. Sinkhorn K-均值[12]用于原型估计和所谓的原型部分分配[11]。请注意,Sinkhorn K-means是无监督的,例如,它不利用来自支持集的标签信息。我们的小贡献SIAMESE将Sinkhorn K-means [12]扩展到具有标签传播的半监督设置。在Alg. 1对标记的支持样本施加最佳可能分布跨所 有 数 据 集 , EASE+SIAMESE 始 终 优 于EASE+Sinkhorn K均值0.3J9083+U(r,c)=,P∈R(L+U)×K|P1=r,PT1=c,.监督FSL评估以及与预9084±±±±±±±±±±±±±±±±±±±±±±±±±±±±表1.测试精度vs.最新技术水平(1次和5次分类)。mini-ImageNet分层ImageNet方法设置网络1发5发1发5发感应感应ResNet-18ResNet-18ResNet-18ResNet-18ResNet-12ResNet-12ResNet-12ResNet-12ResNet-12ResNet-65.720.7769.830.6868.880.6973.680.6582.410.5655.510.8660.07 75.962.35± 0.6674.53± 0.5462.64± 0.6178.63± 0.4664.60± 0.7279.51± 0.5067.19± 0.5580.64± 0.35--––59.91–65.99± 0.7281.56 ±0.5367.39± 0.8282.85 ±0.5673.21± 0.5884.93 ±0.38EASE+软K均值(我们的)QR+SIAMESE(我们)EASE+SIAMESE(我们)直推Transductive传导性ResNet-12ResNet-12ResNet-1257.00± 0.2675.07 ±0.2168.66± 0.3779.36 ±0.2270.47± 0.3080.73 ±0.1669.74± 0.3185.17 ±0.2175.87± 0.2987.80 ±0.2184.54± 0.2789.63 ±0.15感应感应感应感应感应感应感应感应感应感应感应感应感应感应感应感应TransductiveTransductiveTransductiveWRN-28-10WRN-28-10 WRN-28- 10 WRN-28 - 10WRN-28-10 WRN-28-1062.60 0.20 79.970.1476.320.1682.090.1483.180.1178.400.5270.00 0.6079.2070.31 0.93 81.890.6077.8 87.470.74± 0.8584.34± 0.5374.86± 0.1984.13± 0.1483.05± 0.7988.82± 0.4280.64± 0.3489.39± 0.3967.42± 0.2784.45± 0.1879.90± 0.3486.88± 0.1983.00± 0.2188.92± 0.13--70.90-± 0.2285.76-± 0.1573.3486.92 0.6382.1 89.878.50± 0.9188.36 ±0.5780.18± 0.2187.56 ±0.1588.50± 0.7592.46 ±0.4285.22± 0.3491.35 ±0.4075.87± 0.2985.17 ±0.2184.31± 0.3090.55 ±0.1988.96± 0.2392.63 ±0.13表1、表2、表3、表4、表5和表6分别总结了这些方法,并在以下部分进行了讨论。性能数值以准确度%给出,并报告0.95置信区间。测试在10,000个随机5路事件上执行,具有1或5个镜头(每个类的支持示例数),并且每个事件具有15个查询(OpenMIC为2个)。我们使用公开的预训练骨干卷积神经网络,这些网络是在基类训练集上训练的。我们使用残差网络ResNet-12 [29],Wide Residual Net- work WRN-28-10[35]和DenseNet [23]进行实验。有关实验的更多细节在补充材料中。4.1. 实验中使用的FSL基准测试感应FSL设置。在此设置中,支持集和查询集提供标记和未标记的数据。在Ta- 表1中,我们报告了我们提出的EASE、SIAMESE和EASE+SIAMESE的性能,并将它们与来自文献的一组基线和最先进(SOTA)transductive FSL方法:TPN [26],[21]第一次,我和我的朋友们在一起。EPNet [34] 、 CAN-T [9] 、 SIB [48] 、 BP-CSPN [26] 、Lapla-cianShot [58],RAP-LaplacianShot [8],ICI [45],TIM[1],[20],PT-MAP [11]和ConstellationNet [48]。我们还比较了S2 M2-R [27]的SOTA常规FSL结果,以突出使用未标记查询进行预测的效果表1,2和3(mini-ImageNet和分层ImageNet)显示EASE(最佳变体)优于所有以前的(转导/诱导)SOTA。我们的变体包括EASE+SoftK-means和QR+SIAMESE。软K均值是转换(和半监督)FSL中的标准[39,40],QR是矩阵分解[42]。最近的一些模型,如MCT [19]使用数据/模型扰动/增强,并取得了比我们更好的结果。然而,我们使用TAFSSL协议(以及它们的特性)与其他方法一起用于公共测试床。在mini-Imagenet(1次和5次注射方案)上,无干扰的MCT(ResNet-12 ,转导)分别产生71.95%和81.06%vs.我们的71.5%和81.37%(对于n 步=50,=0。0001在阿尔。1)。在tired-Imagenet上,MCT(与aug-MAML [6][第41话][43]第四十三话ProtoNet [40]DeepEMD [50]TPN [26]团队[31][4]第四话[21]第二十一话DSN-MR [39]CAN-T [9]ProtoNet [40][43]第四十三话[44]第四十四话S2M2-R [27][4]第四话SIB [10]BD-CSPN [25]TIM [1]EPNet [34][58]第五十八话iLCT [20][30]第三十话EASE+Soft K-means(我们的)QR+SIAMESE(我们的)9085表2. 测试精度vs.基于转换推理(CUB上的1次和5次分类)的现有技术方法骨干单次拍摄5次射击[58]第五十八话ResNet1880.9688.68LR+ICI [45]iLPC [20]ResNet12ResNet1286.53±0.7989.00±0.7092.11±0.3592.74±0.35EASE+Soft K-means(我们的)QR+SIAMESE(我们的)ResNet-12ResNet-1276.72±0.2785.60±0.2790.04±0.1691.11±0.16EASE+SIAMESE(我们的)ResNet1290.11±0.21 93.13±0.11WRN-28-10 WRN-28-1087.4588.35±0.1991.37±0.6190.18±0.6591.03±0.6391.7492.14±0.1093.93±0.3293.35±0.3094.11±0.30图2. mini-ImageNet上的转换FSL设置中的查询数。图 3.mini-ImageNet 上 的transductive FSL设置中的降维WRN-28-10 WRN-28-1081.01±0.2689.96±0.2691.68±0.1991.44±0.1493.09±0.1494.12±0.09在mini-ImageNet 1-shot协议上,介于3%和6%之间。这可以归因于在给定额外的未标记样本的情况下改进了对数据流形结构的捕获与骨干表3.测试精度vs.基于转换推理的现有技术(CIFAR-FS上的1次和5次分类)。方法骨干单次拍摄5次射击LR+ICI [45]iLPC [20]DSN-MR [39][第48话]ResNet-12ResNet-12ResNet-12ResNet-1275.36±0.9777.14±0.9575.60±0.9075.40±0.2084.57±0.5785.23±0.5586.20±0.6086.80±0.20EASE+软K均值(我们的)R e s N e t -12 63.98±0.21 81.05±0.16QR+SIAMESE(我们的) R e s N e t -1275.46±0.26 84.50±0.16EASE+SIAMESE(我们的) R e s N e t -1278.41±0.29 85.67±0.11WRN-28-1080.00±0.6085.30±0.40WRN-28-1086.91±0.7290.50±0.49WRN-28-1084.88±0.7989.75±0.48WRN-28-1086.51±0.7590.60±0.48WRN-28-1075.61 ± 0.2087.64±0.15WRN-28-1086.00±0.2289.82±0.22WRN-28-1087.60±0.2390.60±0.16表 4. 测 试 精 度 vs. 最 新 技 术 水 平 ( 单 次 分 类 、 转 导 、OpenMIC)。所有基线都是归纳性的。5路1拍69.40 57.30 76.35 53.6870.10 49.70 66.90 46.90 58.4066.33 52.03 74.28 54.3078.00 60.10 75.50 57.80 67.8575.87 62.13 78.25 62.11 69.5981.60 68.68 86.38 66.53 75.80mentations/ 扰动)分别为82.32%和87.36%。结果表明,两种方法的平均回收率分别为84.51%和89.64%(无明显差异)。或扰动)。半监督学习。在 这种设置中,可以访问额外的未标记样本集(以及每个测试任务),其中可能包含目标任务类别和其他类别的样本。表5总结了我们的方法与SOTA半监督FSL方法.如表5所示,我们的方法在所有设置中均优于其他竞争对手(ResNet-12主干),增益变化为-BD-CSPN [25]TIM-GD [1]PT+MAP [11]LR+ICI [45]iLPC [20]EASE+Soft K-means(我们的)QR+SIAMESE(我们的)SIB [10]PT+MAP [11]LR+ICI [45]iLPC [20]EASE+Soft K-means(我们的)QR+SIAMESE(我们的)[43]第四十三话[41]第四十一话[40]第四十话SoSN [51][第39话]EASE+SIAMESE(我们的)模型p1→p2p2→p3p3→p4p4→p1Avg9086±±±±WRN-28-10中,我们的方法在单次设置中也优于其它方法,在mini-ImageNet 1-shot协议上的1.3%和3.5%之间由于PT+MAP [11]没有列出半监督结果,因此我们使用了iLPC [20]中的PT+MAP实现,其主干是WRN-28。10.在分层ImageNet的实验中,相对大量的类别导致随机选择非常多样化的未标记样本,这些样本对支持集和查询集没有积极影响。因此,结果通常比在转导设置的性能差。我们在mini-ImageNet(84.89 0.74 vs82.66 0.97 ) 和 tiered-ImageNet ( 90.08 0.62 vs 84.701.14)中也优于PTN [14我们的方法是不敏感的特征提取器。为此,我们在表6中报告了EASE与DenseNet的性能,它在所有训练类上使用常规的多类分类器而不是在元学习设置中训练骨干(从头开始)。与基线SimpleShot算法相比,该算法在1次拍摄时的增益提高了13%,在5次拍摄时的增益提高了4%以上.所提出的方法也优于基于DenseNet的其他转换方法,例如LaplacianShot [58],RAP-LaplacianShot [8]和TAFSSL [23]。4.2. 消融转换FSL中的查询数。由于转换FSL中的未标记数据完全由查询样本组成,因此Meta测试片段中查询集的大小影响性能。为了测试其效果,我们评估了EASE的拟议变体。所有方法均通过2至50次不同的查询次数进行测试。图2(mini-ImageNet)显示,对于5个或更多查询,我们的方法可以有效地从未标记的样本中学习区分子空间。随着查询数量的增加,基于SVD的直推推理的性能很快停止提高。然而,我们的方法仍然近似线性地获得性能。9087×BackBone ResNet12 WRN-28-10表5.在半监督少杆学习设置下,针对1杆和5杆分类的最新方法的测试准确度的比较。CUB 5-shot省略:没有一个类具有所需的70个示例。迷你IM ageNet tiered-ImageNet CIFAR-FS CUB方法网络设置单次拍摄5次射击单次拍摄5次射击单次拍摄5次射击单次拍摄5次射击LR+ICI [45][20]第20话我爱你ResNet-12ResNet-12ResNet-1230/5030/5030/5067岁57±0。97七十99±0。91七十三。90 ±0。2979岁。07±0. 5681. 06 ±0.4981. 68 ±0。4883岁32±0。87八十五04±0. 79八十五86±0。7989岁。06±0. 5189岁。63±0。4789岁。64±0。4575. 99 ±0。9878岁57±0。80八十51±0。8884. 01 ±0.62八十五84±0。56八十五96±0。5488岁50±0。71九十11±0。64九十61±0。61---LR+ICI [45]PT+MAP [11][20]第20话我爱你WRN-28-10 WRN-28- 1030/5030/5030/5030/5081. 31 ±0。8483岁14±0。7283岁58±0。7984. 89 ±0。7488岁53±0。4388岁95±0。3889岁。68±0。3789岁。47±0。3788岁48±0。6789岁。16±0。6189岁。35±0。68九十08 ±0.6292. 03 ±0.4392. 30 ±0。3992. 61 ±0。3992. 67 ±0。3986岁。03±0. 7787岁05 ±0.6987岁03 ±0.7287岁89±0。7089岁。57±0。5389岁。98±0。49九十34±0。50九十18±0。50九十82±0。5991. 52 ±0。5391. 69 ±0。5592. 11 ±0。52----表6.测试精度vs.最新技术水平(DenseNet,1次和5次分类)。星号迷你图像geNet分层-ImageNet方法单次拍摄5次射击单次拍摄5次射击[44]第四十四话65.77± 0.1975.57± 0.1975.58± 0.2070.53± 0.2572.10± 0.2574.30± 0.2675.75± 0.3279.42± 0.2782.23± 0.1384.72± 0.1385.63± 0.1380.71± 0.1681.85± 0.1682.08± 0.1785.10± 0.1886.76± 0.1471.20± 0.2280.30-± 0.2080.07± 0.2580.82± 0.2582.67± 0.2582.87± 0.3386.17± 0.2586.33± 0.1587.93-± 0.1586.42± 0.1786.97± 0.1787.60± 0.1789.11± 0.2090.54± 0.15[58]第五十八话RAP-LaplacianShot [8][23]第二十三话[23]第二十三话EASE+软K均值QR+SIAMESEEASE+SIAMESE(我们的)与SVD(TAFFSL(ICA)没有平均减法)相比,EASE显示出一致的改善,因为我们增加了查询的数量。[23]这是一个基于[23]的设置并使用DenseNet [13]的比较。注意,我们只使用支持集来估计NCM分类器的类均值,以避免查询的干扰。轻松vs.其他降维方法。TAFSSL [23]表明,降维在转导推理中是我们的方法可以被认为是一种降维方法,因为我们学习了一个子空间,提高了特征鉴别力。为了评估EASE,我们将其放置在TASSFL的
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- IPQ4019 QSDK开源代码资源包发布
- 高频组电赛必备:掌握数字频率合成模块要点
- ThinkPHP开发的仿微博系统功能解析
- 掌握Objective-C并发编程:NSOperation与NSOperationQueue精讲
- Navicat160 Premium 安装教程与说明
- SpringBoot+Vue开发的休闲娱乐票务代理平台
- 数据库课程设计:实现与优化方法探讨
- 电赛高频模块攻略:掌握移相网络的关键技术
- PHP简易简历系统教程与源码分享
- Java聊天室程序设计:实现用户互动与服务器监控
- Bootstrap后台管理页面模板(纯前端实现)
- 校园订餐系统项目源码解析:深入Spring框架核心原理
- 探索Spring核心原理的JavaWeb校园管理系统源码
- ios苹果APP从开发到上架的完整流程指南
- 深入理解Spring核心原理与源码解析
- 掌握Python函数与模块使用技巧
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功