没有合适的资源?快使用搜索试试~ 我知道了~
11用于少样本学习的Jongmin Kim1,3,Taesup Kim2,3,Sungwoong Kim3,and ChangD.Yoo11韩国高等科学技术2MILA,Uni versite'de Montre' al3Kakao Brain摘要在本文中,我们提出了一种新的边缘标记图神经网络(EGNN),它在边缘标记图上适应深度神经网络,用于少量学习。以前的图神经网络(GNN)方法在少数拍摄学习已经基于节点标记框架,隐式模型的内集群相似性和集群间的相异性。相比之下,所提出的EGNN学习预测图上的边缘标签而不是节点标签,这使得能够通过迭代地更新边缘标签来直接利用簇内相似性和簇间不相似性来进化显式聚类。它也非常适合在各种数量的类上执行而无需重新训练,并且可以很容易地扩展以执行transduc-tive推理。EGNN的参数学习的情景训练与边缘标记损失,以获得一个很好的泛化模型,看不见的低数据问题。在具有两个基准数据集的监督和半监督少镜头图像分类任务上,所提出的EGNN显著提高了现有GNN的性能。1. 介绍最近,在各个领域都出现了对元学习[1]的大量兴趣,特别是任务泛化问题,如少次学习[2,3,4,5,6,7,8,9,10,11,12,13,14,15],学会学习[16,17,18]、非平稳强化学习[19,20,21]和持续学习[22,23]。在这些元学习问题中,少样本学习的目标是基于从先前经验中获得的知识,自动且有效地解决具有少量标记数据的新任务。 这是在Kakao Brain实习期间完成的工作。 对应于kimjm0309@gmail.com图1:EGNN中的替代节点和边缘特征更新,带有用于少量学习的与高度依赖大量标记数据和繁琐的手动调整来解决单个任务的传统(深度)学习方法形成对比。最近,人们对图神经网络(GNN)也越来越感兴趣,以利用深度神经网络处理数据上的丰富关系结构[24,25,26,27,28,29]。29、30、31、32、33、34]。GNN通过消息传递迭代地执行来自邻居的特征聚合,因此可以表达数据实例之间的复杂交互。由于少镜头学习算法已经证明需要充分利用支持集和查询之间的关系[2,3,5,10,11],GNN的使用自然具有解决少镜头学习问题的巨大潜力。最近已经提出了一些探索GNN用于少镜头学习的方法[6,12]。具体来说,给定一个具有少量支持集的新任务,Garcia和Bruna [6]提出首先构建一个图,其中支持集和查询的所有示例都是密集连接的。每个输入节点由嵌入特征(例如, 卷积神经网络的输出)和给定标签信息(例如,独热编码标签)。然后,通过迭代更新邻域聚集的节点特征对未标记查询进行分类Liu等人[12]提出了一种基于从深层神经网络获得的节点特征的传导传播网络(TPN)12ral网络在测试时,它迭代地将one-hot编码的标签传播到整个支持和查询实例作为一个整体,使用公共图参数集。在此,注意到,上述先前的GNN方法在少数拍摄学习中主要基于节点标记框架,其隐式地对集群内相似性和集群间不相似性进行建模。相反,边缘标记框架能够显式地执行具有表示学习和度量学习的聚类,并且因此它直观地是用于推断查询关联到扩展支持聚类的更有说服力的框架此外,它不需要预先指定的集群数量(例如,类基数或方式),而节点标记框架必须根据每个数量的聚类单独训练模型。边缘标记的显式利用表明相关的两个节点是否属于同一个集群(类)先前已经在用于相关聚类的朴素(超)图[35]和用于引用网络或动态系统的GNN [36,37]中进行了调整因此,在本文中,我们提出了一个边缘标记GNN(EGNN)的少镜头倾斜,特别是在任务的少镜头分类。所提出的EGNN由若干层组成其中每一层由节点更新块和边缘更新块组成。具体而言,跨层,EGNN不仅更新节点特征,而且还扩展调整边缘特征,其反映了两个连接节点对的边缘标签,并直接利用簇内相似性和簇间不相似性。如图1所示,在多个备选节点和边缘特征更新之后,可以从最终边缘特征获得边缘标签预测。然后计算边缘损失,以使用众所周知的元学习策略更新EGNN的参数,称为情景训练[2,9]。EGNN自然能够执行transductive推断以作为整体一次预测所有测试(查询)样本此外,EGNN中的边缘标记框架能够处理各种数量的类,而无需重新建模或重新训练。我们将通过在两个基准少镜头图像分类数据集上的实验结果表明,EGNN在监督和半监督情况下都优于其他少镜头学习算法,包括现有的GNN。我们的主要贡献可概括如下:• EGNN首先提出了几杆学习迭代更新边缘标签利用两个类内相似性和类间dissimi。larity。它也能够很好地适用于执行各种数量的类没有再培训。• 它由若干层组成,每层由一个节点更新块和一个边更新块块,其中在情景训练框架下估计相应的参数。• 该神经网络可以进行转导性和非转导性的学习或推理• 在有监督和半监督的小样本图像分类任务上,数据集,所提出的EGNN显着提高了现有GNN的性能。此外,几个消融实验显示了显式聚类以及单独利用簇内相似性和簇间不相似性的好处。2. 相关作品图形神经网络图形神经网络首先被提出来直接处理图形结构化数据,神经网络作为递归神经网络的形式[28,29]。李等人[31]进一步扩展了它与门控再流单位和现代优化技术。图神经网络主要采用邻域聚合框架进行表示学习,通过递归聚合和变换相邻节点的特征来计算节点基于广义卷积的传播规则也直接应用于图[34,38,39],Kipf和Welling [30]特别将其应用于具有可扩展性的图结构数据的半监督学习。一些方法[6,12]已经探索了用于少量学习的GNN,并且基于节点标记框架。边缘标记图相关聚类(CC)是一种图分区算法[40],它通过同时最大化簇内相似性和簇间不相似性来推断图的边缘标记。Finley和Joachims [41]考虑了一个框架,该框架在CC中使用结构化支持向量机进行名词短语聚类和新闻文章聚类。Taskar [42]导出了用于学习CC中的边缘分数以产生单个图像的两个不同分割的最大余量公式。Kim等人。[35]探索了用于特定任务图像分割的超图上的高阶CC。图注意力网络中的注意力机制最近已经扩展到包含实值边缘特征,这些特征适应于局部内容和全局层,用于建模引用网络[36]。Kipf等人。[37]介绍了一种方法,可以在学习交互系统的动态模型时同时推断具有可解释边缘类型的关系结构。Johnson [43]介绍了门控图Transformer神经网络(GGT-NN),用于13i=1i=N×K+1自然语言任务,其中考虑多个边类型和包括节点状态更新、传播和边更新的若干图变换操作。少镜头学习一种主流的少镜头图像分类方法是基于表示学习,并根据表示之间的相似性使用最近邻进行预测。相似性可以是简单的距离函数,例如余弦或欧几里得距离。暹罗网络[44]使用可训练的加权L1距离以成对方式工作。匹配网络[2]进一步使用注意力机制来导出可微最近邻分类器,并且原型网络[3]通过将原型定义为每个类的嵌入支持示例的平均值来扩展它DEML[45]引入了一个概念学习器,通过使用大规模辅助标记数据集来提取高级概念,表明良好的表示是提高少镜头图像分类性能的重要组成部分任务不足以训练完全反映类间和类内变化的模型,这通常导致不令人满意的分类性能。显式训练集上的元学习通过提取可传递的知识解决了这个问题,使我们能够在支持集上进行更好的少次学习,从而更成功地对查询集进行分类。作为元学习的一种有效方法,我们采用了在各种文献中常用的情景训练[2,9][3,4,5]。给定一个相对较大的标记训练数据集,情景训练的想法是对模拟测试任务的少量学习设置的训练任务(情景)这里,由于训练任务的分布被假定为与测试任务的分布类似,所以可以通过学习模型来改善测试任务的性能,以在训练任务上良好地工作。更具体地说,在情景训练中,训练和N-S-路K-射击问题的测试任务如下:T=S其中S={(xi,yi)}N×K,学习优化模型参数的元学习器Q={(xi,yi)}N×K+T. 这里,T是查询提取任务之间的一些可转移知识,以在少量学习的背景下进行杠杆化。Meta-LSTM [8]使用LSTM作为模型更新器,并将模型参数视为其隐藏状态。这允许学习参数的初始值,并通过读取少数镜头示例来更新参数。MAML [4]只学习参数的初始值,并简单地使用SGD。它是一种模型不可知的方法,适用于监督和再学习任务。Reptile [46]类似于MAML,但仅使用一阶梯度。另一个通用的Meta学习器,SNAIL [10],是一个新的组合的节奏卷积和软注意力学习最佳的学习策略。3. 方法在本节中,介绍了少镜头分类任务的定义,并详细描述了所提出的算法。3.1. 问题定义:少炮分类少镜头分类的目的是学习分类器时,每个类只有几个训练样本。因此,每个少镜头分类任务T包含一个支持集S、输入-标签对的标签集和查询集合Q,在其上评估学习的分类器的未标记集合。如果支持集S对于N个唯一类中的每一个都包含K个标记样本,则该问题称为N路问题。K-shot分类问题。最近,元学习已经成为解决少镜头分类的标准方法。原则上,我们可以样本,并且xi和yi∈{C1,···CN}=CT <$C分别是第iC是训练数据集或测试数据集的所有类的集合。 虽然这两个训练和测试任务是从公共任务分布中采样的,标签空间是互斥的,即,C列车C试验=C。每个片段中的支持集S用作标记的训练集,在该训练集上训练模型以使其在查询集Q上的预测损失最小化。该训练过程通过以下步骤迭代地执行:直到收敛。最后,如果N×K个支持样本中有一部分是未标记的,则该问题称为半监督少镜头分类问题.在第四节中,我们的算法半监督设置将被提交。3.2. 模型本节描述了所提出的用于少镜头分类的EGNN,如图2所示。给定目标任务的所有样本的特征表示(从联合训练的卷积神经网络中提取),最初构建全连接图,其中每个节点表示每个样本,并且每个边表示两个连接节点之间的关系类型;设G =(V,E; T)是 用 来 自 任 务 T 的 样 本 构 造 的 图 , 其 中 V :={Vi}i=1,.,|E:=|and E :={Eij}i ,j=1 ,... ,| 表 示 节 点 和 边 缘 的 集 合,|denote the set of nodesand edges of the图,分别。设Vi和eij分别为Vi的节点特征和Eij的边特征 |不|= N × K + T是任务T中的样本总数。每个地面实况边缘标签由地面实况节点la定义训练一个分类器,为每个查询样本分配一个类标签,只有任务的紧凑支持集。然而,对于每一个,贝尔:.yij=1,如果yi=yj,0, 否则。(一)14d=1我vIJee=ij2ij ijij ij图2:所提出的EGNN模型的总体框架。在该图示中,作为示例呈现了2路2次射击问题。蓝色和绿色圆圈代表两个不同的类。实线节点表示标记的支持样本,而虚线节点表示未标记的查询样本。边缘特征的强度用正方形中的颜色表示注意,尽管每个边缘具有2维特征,但为了简单起见,仅描绘了第一维。详细过程见第3.2节。每个边缘特征eij={eijd}2[0,1]2是一个2-类似于如下的注意机制来吸引邻居节点:表示(归一化)强度的Σv=f([e−1v−1||Σ e−1v−1];θ),(3)这两个相互关联的阶级内部和阶级之间的关系结这允许分别利用集群内相似性和集群间差异性。ivij1j j艾季德ℓij2jvJ节点特征由convo的输出初始化,其中eijd=Σ克伊克德和fv 是一个节点(node),函数嵌入网络v0=femb(xi;θemb),其中θemb是相应的参数集(见图3)。(a))。边特征由边标签初始化,如下所示:形成网络,如图3所示。(b),与PA-参数设置为θ。应该注意的是,除了传统的类内聚合之外,我们还考虑了类间聚合。而类内聚合为目标节点提供“相似近邻”信息e0级伊杰[1个||0],若yij=1且i,j≤N×K,[0]||1],若yij=0且i,j≤N×K,[0。5||0的情况。5],否则,(二)bors“不同的然后,基于新更新的节点特征进行边缘特征更新。每个人之间的相似之处(dissimilarities)哪里||是级联操作。EGNN由L层组成,用于处理图,并且EGNN的前向传播用于推理是节点特征和边特征的交替更新,重新获得一对节点,并且通过组合先前的边缘特征值和更新的(不)相似性来更新每个边缘的特征,使得f(v,v;θ)e−1e=eijeij1、(四)ij1f(v,v;θ)e−1/(e−1)详细地,给定来自层m-1的vm-1和em-1,节点克伊克eik1k ik1伊伊季(1−f<$(v<$,v<$;θ<$))e<$−1特征更新首先由邻域ag进行种族隔离程序。 图层上的要素节点ve=eijeij2(1−f<$(v<$,v<$;θ<$))e<$−1/(e−1)、(五)ikeikeik2k ik2通过首先聚合其他节点的要素来更新与其边缘特征成比例,然后进行特征变换;层上的边缘特征e-1 -1被用作相应的贡献度e=e<$/e<$1,(6)其中f是使用参数集θ计算相似性得分的度量网络(见图3)。(c))。在spe-15i=N×K+1ij1m,em,e我我算法1:EGNN的推理过程S1输入:G=(V,E;T),其中T=S Q,S={(xi,yi)}N×K,Q={xi}N×K+Ti=1i=N×K +12 参数:θemb<${θ<$,θ<$}Lve=13输出:{yi}N×K+T4初始化:v0=femb(xi;θemb),e0,θi,j伊伊季5,其中λ=1,···,L为/*节点功能更新*/对于i = 1,···,|V|做7v←NodeUpdate({v−1},{e−1};θ)我端8i ijv/*边缘功能更新*/9,对于(i,j)= 1,···,|E|做10e←EdgeUpdate({v},{e−1};θ)IJ11端部伊伊杰12端部/*查询节点标签预测*/13{yi}N×K+T←Edge2NodePred({yi}N×K,{eL})图3:EGNN中使用的详细网络架构i=N×K+1i=1ij(a) 嵌入式网络(b)特征(节点)变换网络函数。(c)公制网络f。在算法1中总结了测试时的EGNN推理v e非转换推理是指查询cific,节点要素流入边,每个元素与每个归一化的簇内相似性或簇间相异性分开地更新边缘特征向量。也就是说,每个边更新不仅考虑对应节点对的关系,而且还考虑重新连接。样本T= 1,或者它单独地一个接一个地执行查询推理,而直推推理在单个图中一次分类所有查询样本。3.3. 培训其他节点对的位置我们可以选择使用给定M个训练任务{Ttrain}M在某个迭代中,m m=1两个独立的度量网络,用于计算每个相似性或不相似性(例如,单独的fe,dsim代替在情景训练期间,设定的EGNN,θemb{θ,θ}L,在端到端训练,(1-f)))。ve=1e,sim在L个备选节点和边缘特征更新之后,可以从最终边缘 特征 获得 边缘 标签 预测 , 即, yij=eL. 这里 ,y∈ij∈[0,1]可以是通过最小化下面的损失函数来结束时尚:ΣL ΣML=λ<$Le(Ym,e,Y<$ ),(8)被认为是两个节点Vi和Vj是来自同一个班级。因此,每个节点Vi可以通过具有支持集标签和边缘标签预测结果的简单加权投票来分类节点Vi的预测概率可表示为P(yi= Ck| T)= p(k):.ΣΣm=1其中,Ym,e和Y分别是第m层任务的所有地面实况查询边缘标签的集合和所有(实值)查询边缘预测的集合,并且边缘损失Le被定义为二进制交叉熵损失。以来p(k)=softmaxyijδ(yj=Ck)(7){j:ji<$(x j,yj)∈S}边缘预测结果不仅可以从最后一层,但也从其他层,总损失组合所有层中计算的所有损失,按顺序其中δ(yj=Ck)是克罗内克k erδ函数,当yj=Ck时等于1,否则等于0。节点分类的另一种方法是使用图聚类-ing;整个图G可以首先使用边缘预测和用于有效分析的优化被通过线性规划[35]进行排序,然后每个聚类可以用它包含最多的支持标签进行标记。然而,在本文中,我们简单地应用Eq。(7)获得分类结果。的整体算法以改善下层中的梯度流4. 实验我们评估并比较了我们的EGNN1与两个少数学习基准的最先进方法即miniImageNet [2]和分层ImageNet [7]。1代码和型号可在https://github.com/ khy160809/fewshot-egnn上找到。174.1. 数据集miniImageNet它是由[2]提出的最流行的少量学习基准,来自原始的ILSVRC-12数据集[47]。所有图像均为RGB彩色,大小为84× 84像素,从100个不同类别中每类600个样本我们跟踪了在[8]中,分别有64、16和20个类用于训练、验证和测试。分 层 ImageNet 与 迷 你 ImageNet 数 据 集 类 似 , 分 层ImageNet [7] 也 是 ILSVRC-12 [47] 的 子 集 。 与miniImageNet相比,它有更多的图像(超过700K),从更多的类(608个类,而不是miniImageNet的100个类)中采样。重要的是,与迷你ImageNet不同,分层ImageNet采用分层类别结构,其中608个类中的每一个都属于从Imagenet中的高级节点中采样的34个高级类别之一。每个高级类别包含10到20个类,并分为20个训练(351类),6个验证(97类)和8个测试(160类)类别。每个类别中的平均图像数量为1281。4.2. 实验装置网络架构对于特征嵌入模块,使用了由四个块组成的卷积神经网络,如在大多数少镜头学习模型[2,3,4,6]中一样,没有任何跳过连接2。更具体地,每个卷积块由3× 3卷积、批量归一化和LeakyReLU激活组成。在EGNN中使用的所有网络架构在图3.评估对于这两个数据集,我们进行了5路5次实验,这是标准的几次学习设置之一。为了进行评估,每个测试片段通过对5个类中的每个类随机抽样15个查询来形成,并且性能平均超过来自测试集的600个随机生成的片段。特别是,我们还在miniImagenet上进行了一个更具挑战性的10路实验,以证明当元训练阶段和元测试阶段之间的类数量不同时,我们的EGNN模型的灵活性,这将在第4.5节中介绍。该模型使用Adam optimizer进行训练,初始学习率为5×10−4,权重衰减为10−6。 元训练的任务小批量大小对于5向和10向实验,分别设定为40和20。 对于迷你ImageNet,我们削减了学习-2基于Resnet的模型被排除在公平比较之外。(a) 迷你ImageNet模型译五向五射匹配网络[2]没有55.30爬行动物[46]没有62.74原型网[3]没有65.77GRN [6]没有66.41EGNN没有66.85MAML [4]BN63.11[46]第四十六话BN65.99关系网[5]BN67.07MAML+转导[4]是的66.19TPN [12]是的69.43TPN(高K)[12]是的69.86EGNN+转导是的76.37(b)分层ImageNet模型译五向五射爬行动物[46]没有66.47原型网[3]没有69.57EGNN没有70.98MAML [4]BN70.30[46]第四十六话BN71.03关系网[5]BN71.31MAML+转导[4]是的70.83TPN [12]是的72.58EGNN+转导是的80.15表1:miniImageNet和分层ImageNet上的少镜头分类精度。所有结果均为600次测试事件的平均值。突出显示最佳结果每15,000集的学习率减半,而对于tieredImageNet,每30,000集的学习率减半,因为它是更大的数据集,需要更多的迭代来收敛。我们所有的代码都在Pytorch[48]中实现,并与NVIDIA Tesla P40 GPU一起运行4.3. 少炮分类所提出的EGNN模型的少镜头分类性能与表1a和1b中的几个国家的最先进的模型进行比较。 如[12]所示, 所有模型分为三类, 三种不同的转换设置;“否”表示非转换方法,其中每个查询样本独立于其他查询进行预测,“是”表示转换方法,其中所有查询同时处理并一起预测,并且“BN”表示使用查询批次统计而不是全局批次归一化参数,这可以被认为是测试时的一种转换推断。所 提 出 的 EGNN 进 行 了 测 试 与 transduc- tive 和 非transductive设置。如表1a所示,EGNN在5路5次激发集合中显示出最佳性能18在miniImagenet上的转换和非转换设置上。值得注意的是,EGNN比节点标记GNN [6]表现得更好此外,在两个数据集上,具有转导的EGNN(EGNN +转导)优于第二好的方法(TPN [12]),特别是在miniImagenet上的大幅度。表1b显示,分层Imagenet上的转导设置提供了最佳性能以及与非转导设置相比的大幅改善。在TPN中,只有支持集的标签基于使用公共拉普拉斯矩阵的成对节点特征相似度传播到查询相比之下,我们提出的EGNN允许我们考虑更复杂的查询样本之间的相互作用,通过传播给对方不仅是他们的节点功能,但也边缘标签信息跨图形层具有不同的参数集。此外,TPN的节点特征是固定的,在标签传播过程中永远不会改变,这使得他们能够推导出封闭形式的一步标签传播方程。相反,在我们的EGNN中,节点和边缘的功能是动态变化的,并逐渐适应给定的任务几个更新步骤。4.4. 半监督少镜头分类对于半监督实验,我们遵循[6]中描述的相同设置进行公平比较。这是一个5路5杆设置,但支持样品只是部分标记。标记的样本在类之间平衡,使得所有类具有相同量的标记和未标记的样本。在miniImagenet上获得的结果见表2。这里,根据20%和40%,60%的支持样本被标记时,给出了不同的结果,并将所提出的EGNN与节点标记GNN [6]进行了比较。如表2所示,与仅标记学习相比,半监督学习在所有情况下都提高了性能。值得注意的是,EGNN在半监督学习上的表现大大优于之前的GNN [6](61.88% vs 52.45%,当20%标记时),特别是当标记部分很小时。在转导设置(EGNN-Semi(T))上性能甚至更高。简而言之,我们的EGNN能够从未标记的样本中提取更多有用的信息,与节点标记框架相比,在转导和非转导设置上。4.5. 消融研究所提出的边缘标记GNN具有由多个节点和边缘更新层组成的深层架构。因此,随着模型变得更深,层越多,训练方法标记比率(5路5次注射)20% 40% 60% 100%GNN-LabeledOnly [6]50.3356.91-66.41[6]第六话52.4558.76-66.41仅EGNN标记52.86--66.85EGNN半61.8862.5263.5366.85仅EGNN标记(T)59.18--76.37EGNN-半(T)63.6264.3266.3776.37表2:迷你ImageNet上的半监督少镜头分类特征类型EGNN层数1 2 3Intra国际67.9973.1976.37仅帧内67.2872.2074.04表3:具有不同EGNN层数和不同要素类型的迷你任务样本之间的交互应该更密集地传播,这可能导致性能改进。为了支持这一说法,我们比较了具有不同EGNN层数的少量学习性能,结果如表3所示。随着EGNN层数的增加,性能变得更好。有一个很大的跳跃,在少数镜头的准确性时,层数从1层到2层(67.99%→ 73.19%),三层有少量的额外增益(76.37%)。所提出的EGNN的另一个关键成分是在节点/边缘更新中使用单独的簇内相似性和簇间不相似性的利用。验证这一点的有效性,我们进行了实验,只有集群内的聚合和比较的结果,通过使用这两个聚合。结果也列于表3中。对于所有EGNN层,使用单独的簇间聚合明显提高了性能。还应该注意的是,与之前的节点标记GNN相比,所提出的边缘标记框架更有利于解决任意元测试设置下的少镜头问题,特别是当用于元测试的少镜头类的数量与用于元训练的少镜头类的数量不匹配时。为了验证这一说法,我们用EGNN进行了一个交叉实验,结果如表4所示。在这里,模型使用5路5次设置进行训练,并在10路5次设置上进行测试,反之亦然。有趣的是,这两个交叉方式的结果是类似的匹配方式设置获得的。因此,我们可以观察到EGNN可以成功地扩展到修改后的少数镜头设置,而无需重新训练模型,而之前的节点标记GNN [6]19表4:在miniIma-genet 5-shot设置上的交叉少次学习结果。甚至不适用于交叉路设置,因为模型的大小和参数取决于路的数量。图4显示了先前节点标记GNN和EGNN的节点特征的t-SNE [49]可视化。在第一层传播之后,GNN倾向于在支持样本之间显示出良好的聚类,然而,查询样本被大量地聚类在一起,并且根据每个标签,查询样本及其支持样本永远不会靠近在一起,特别是即使具有更多的层传播,这意味着GNN的最后一个完全连接层实际上似乎在查询分类中执行大多数角色。相比之下,在我们的EGNN中,随着层传播的进行,如果它们的标签不同,则查询和支持样本都会被拉开,同时,同样标记的查询和支持样本会靠近在一起。为了进一步分析,图5显示了边缘特征如何在EGNN中传播。从所有查询边缘初始化为0.5的初始特征开始,边缘特征逐渐演变为类似于地面实况边缘标签,因为它们通过几个EGNN层。5. 结论这项工作解决了少镜头学习的问题,特别是在少镜头分类任务。我们提出了一种新的EGNN,其目的是迭代更新边标签,以推断查询关联到现有的支持集群。在EGNN的过程中,通过具有不同参数集的图层,利用显式的类内相似性和类间不相似性进行多个交替节点和边特征更新边缘标记丢失被用来更新EGNN的参数与情节训练。前-图4:节点特征的t-SNE可视化。从上到下:GNN [6],EGNN。从左到右:初始嵌入,第一层,第二层,第三层。’x’不同的颜色意味着不同的标签。图5:边缘特征传播的可视化。从左至右:初始边缘特征、第一层、第二层、地面实况边缘标签。红色表示较高的值(eij1=1),而蓝色表示较低值(eij1=0)。此图显示了5路3次设置,每个类3个查询,共30个任务样本。前15个样本是支持集,后15个样本是查询集。实验结果表明,EGNN在监督和半监督的少镜头图像分类任务中的性能所提出的框架是适用于各种各样的其他元聚类任务。对于未来的工作,我们可以考虑另一种与有效图聚类相关的训练损失,例如循环损失[35]。另一个有前途的方向是图稀疏化,例如。构造K-最近邻图[50],这将使我们的算法更适合于更大数量的镜头。确认这项工作得到了韩国国家研究基金会(NRF)的支持 , 该 基 金 由 韩 国 政 府 ( MSIT ) 资 助 ( 编 号 :2009 ) 。 NRF-2017 R1 A2 B2006165 ) 和 韩 国 政 府(MSIT)资助的信息通信技术促进研究所(IITP)资助(No.2016-0-00563,智能自主数字伴侣的自适应机器学习技术开发研究)。此外,我们还要感谢KakaoBrain Cloud团队的支持,让我们能够高效地使用GPU集群进行大规模实验。模型火车道测试方法精度原型[3]5565.77原型51051.93原型101049.29原型10566.93GRN [6]5566.41GNN510N/AGNN101051.75GNN105N/AEGNN5576.37EGNN51056.35EGNN101057.61EGNN10576.2720引用[1] Christiane Lemke,Marcin Budka,and Bogdan Gabrys.满足学习:对趋势和技术的调查。ArtificialIntelligenceReview,44(1),2015. 1[2] Oriol Vinyals ,Charles Blundell,Tim Lillicrap ,DaanWier-stra,et al.匹配网络进行一次性学习。在NIPS,第3630-3638页一二三五六[3] 杰克·斯内尔凯文·斯沃斯基和理查德·泽梅尔用于少镜头学习的原型网络。在NIPS,第4077-4087页,2017年。一、三、六、八[4] Chelsea Finn,Pieter Abbeel,Sergey Levine.用于深度网络快速适应的模型不可知元学习。ICML,2017。一、三、六[5] Flood Sung Yongxin Yang , Li Zhang , Tao Xiang ,Philip HS Torr,and Timothy M Hospedales.学习比较:用于少数学习的关系网络。在CVPR,2018年。一、三、六[6] 维克多·加西亚和琼·布鲁娜。图神经网络的少样本学习在ICLR,2018年。一二六七八[7] Mengye Ren , Eleni Triantafillou , Sachin Ravi , JakeSnell , Kevin Swersky , Joshua B Tenenbaum , HugoLarochelle,and Richard S Zemel.用于半监督少镜头分类的元学习。在ICLR,2018年。一、五、六[8] 萨钦·拉维和雨果·拉罗谢尔。优化作为一个模型的少镜头学习。在ICLR,2017。一、三、六[9] Adam Santoro,Sergey Bartunov,Matthew Botvinick,Daan Wierstra,and Timothy Lillicrap.使用记忆增强神经网络的元学习。在ICML,第1842一、二、三[10] Nikhil Mishra , Mostafa Rohaninejad , Xi Chen , andPieter Abbeel.一个简单的神经专注元学习者。在ICLR,2018年。第1、3条[11] 鲍 里 斯 ·N. Oreshkin , Pau Rodriguez , and AlexandreLacoste. Tadam:用于改进少镜头学习的任务相关自适应度量。在NIPS,2018年。1[12] Yanbin Liu,Juho Lee,Minseop Park,Saehoon Kim,and Yi Yang.用于少量学习的直导传播网络。2019年,在ICLR。一、二、六、七[13] 作者 :王 宇雄 Girshick ,Martial Hebert ,and BharathHariharan.从假想数据中进行低拍摄学习。在CVPR,2018年。1[14] 布伦登M湖,鲁斯兰萨拉胡迪诺夫,和约书亚B tenen-baum。通过概率程序归纳法进行人类层面的概念学习。Science,350(6266):1332-1338,2015. 1[15] Taesup Kim、Jaesik Yoon、Ousmane Dia、SungwoongKim、Yoshua Bengio和Sungjin Ahn。贝叶斯模型不可知元学习。在NIPS,2018年。121[16] 放 大 图 片 作 者 : Marcin Andrychowicz , MishaDenil , Sergio Gomez Col- menarejo , Matthew W.Hoffman,David Pfau,Tom Schaul,and Nando deFreitas.通过梯度下降来学习。在NIPS,2016年。1[17] Irwan Bello , Barret Zoph , Vijay Vasudevan , andQuoc V.乐神经优化器搜索与强化学习。ICML,2017。1[18] 放 大 图 片 作 者 : OlgaWichrowska , NiruMaheswaranathan , Matthew W. Hoffman , SergioGomez Colmenarejo , Misha Denil , Nando deFreitas,and Jascha Sohl-Dickstein.可扩展和泛化的学习优化器。ICML,2017。1[19] Maruan Al-Shedivat , Trapit Bansal , Yuri Burda ,Ilya Sutskever,Igor Mordatch,and Pieter Abbeel.在非平稳和竞争环境中通过元学习进行持续适应。在ICLR,2018年。1[20] 作者:Richard Y.放大图片作者:John C. Stadie,Filip Wolski,Jonathan Ho,and Pieter Abbeel.不断演变的政策梯度。在NIPS,2018年。1[21] 放 大 图 片 创 作 者 : Anusha Nagabandi RonaldS.Fearing,Pieter Abbeel,Sergey Levine,and ChelseaFinn.学会适应:基于模型控制的元学习。CoRR,abs/1803.11347,2018。网址http://arxiv.org/abs/1803.11347。1[22] Risto Vuorio,Dong-Yeon Cho,Daejoong Kim,andJiwon Kim. Meta持续学习。arXiv,2018年。网址https://arxiv.org/abs/1806.06928网站。1[23] 徐菊和朱展兴。加强持续学习。在NIPS,2018年。1[24] Peter W. Battaglia等人关系归纳偏差、深度学习和图网络。arXiv,2018年。网址https://arxiv.org/abs/1806.01261网站。1[25] Michael M. Bronstein,Joan Bruna,Yann LeCun,Arthur Szlam,and Pierre Vandergheynst.几何深度学习 : 超 越 了 欧 几 里 得 数 据 。 IEEE SignalProcessingMagazine,34(4):18 1[26] Keyulu Xu , Weihua Hu , Jure Leskovec , andStefanie Jegelka.图神经网络有多强大?arXiv预印本arXiv:1810.00826,2018。1[27] 放大图片作者:Justin Gilmer.帕特里克·舍恩霍尔茨Riley、Oriol Vinyals和George E.达尔量子化学的神经信息传递。CoRR,abs/1704.01212,2017。网址http://arxiv.org/abs/1704.01212。 1[28] M.哥里湾Monfardini和F.斯卡塞利一种新的图域学习模型。InIJCNN,2005. 一、二[29] Franco Scarselli、Marco Gori、Ah Chung Tsoi、MarkusHa-genbuchner 和 Gabriele Monfardini 。 图 神 经 网 络 模型。IEEE Transactions on Neural Networks,20(1):61一、二22[30] 托马斯·N Kipf和Max Welling。使用图卷积网络的半监督分类。在ICLR,2017。一、二[31] Yujia Li , Daniel Tarlow , Marc Brockschmidt , andRichard Zemel.门控图序列神经网络ICLR,2016年。一、二[32] William L. Hamilton,Rex Ying,Jure Leskovec.大图上的归纳表示学习。在NIPS,2017年。1[33] PetarVelickovic、GuillemCucurull、ArantxaCasanova 、 Adriana Romero 、 Pietro Lio 和 YoshuaBengio。图at-tension网络。在ICLR,2018年。1[34] 迈克尔·德菲拉德,泽维尔·布列松,皮埃尔·范德恩斯特.具有快速局部谱滤波的
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功