没有合适的资源?快使用搜索试试~ 我知道了~
+v:mala2277获取更多论文CGMN:一种用于自监督图相似性学习的迪金1,王鲁智1,郑义珍2,李翔3,蒋飞3,林伟3,潘世瑞21天津大学智能与计算学院2澳大利亚莫纳什大学IT学院数据科学与人工智能系3北京美团{jindi,wangluzhi} @ tju.edu.cn,{yizhen.zheng1,shirui.pan} @ monash.edu摘要图相似性学习是指计算两个图之间的相似性得分,这在许多实际应用中是需要的,例如视觉跟踪,图分类和协同过滤。由于大多数现有的图神经网络产生有效的图表示的一个单一的图,很少努力已经联合学习两个图表示和计算它们的相似性得分。此外,现有的无监督图相似性学习方法,ODS主要是基于聚类的,这忽略了图对中包含的有价值的信息。为此,我们提出了一种用于自 监 督 图 相 似 性 学 习 的 对 比 图 匹 配 网 络(CGMN),以计算任何两个输入图对象之间的相似性。具体地说,我们分别为每一个图生成两个增广视图。然后,我们采用两种策略,即跨视图交互和跨图交互,有效的节点表示学习。前者是为了加强节点表示在两个视图中的一致性。后者用于识别不同图之间的节点差异最后,我们通过池化操作将节点表示转换为图级表示,我们在八个真实世界的数据集上对CGMN进行了评估,实验结果表明,所提出的新方法在图相似性学习的下游任务中优于现有的方法。1介绍图结构化数据是存在于各种领域中的编码结构的自然表示,包括计算机视觉[Wanet al. ,2021],社交网络[Jinetal. ,2021a]、NLP [Yuet al. ,2021],推荐系统[Jiaetal. ,2021;Jinet al. 图相似性学习是图结构数据挖掘中最重要的研究问题之一。它的目的是学习一个相似的*通讯作者图1:监督图相似性学习模型的视图。一对输入图的得分。图相似性学习在各种场景中具有广泛的应用,例如二进制代码分析[Xuet al. ,2017],用于推荐系统的协作过滤算法[Suet al. ,2021]等。不同的任务场景具有不同的相似性度量,例如,图编辑距离(GED)[Sanfeliu和Fu,1983]和最大公共子图(MCS)[Bunke,1997]。GED问题是指求解将一个图转换为另一个图所需的最小编辑操作数然而,GED和MCS问题是一类NP完全问题[Wanget al. ,2021;Baiet al. ,2021],这表明解决这些问题在计算上是昂贵的。一些传统的方法 , 如 A*[Neuhauset al. , 2006] 和 匈 牙 利 文 [RiesenandBunke,2009]等方法虽然能够准确地解决GED问题,但计算复杂度很高,难以应用于大规模真实数据集。另外,传统的搜索算法主要考虑图的结构,而忽略了图中包含的丰富属性信息,包括节点特征、边特征等,限制了其适用性.鉴于计算图距离的巨大困难,人们开始使用图神经网络 (GNN ) 来学 习 两 个图 之 间的 相 似 性[Liet al. ,2019]。但目前大多数基于GNN的图相似性学习方法都是有监督的,通常采用训练方案,可以总结如下。首先,通过使用一个arXiv:2205.15083v1 [cs.LG] 2022年5月+v:mala2277获取更多论文⊕图2:节点信息更新过程的比较。左:基于聚类的无监督图相似性学习。右:我们提出的模型CGMN。 hi表示节点i的嵌入,C表示聚类权,是连接,α表示交叉图的交互权.GNN编码器。然后,通过使用池化操作获得图级表示之后,利用距离度量(例如,余弦相似性和欧几里德距离),可以在给定一对图级表示的情况下获得相似性得分。最后,在地面实况的指导下,他们用计算出的损失来训练模型,损失是相似性得分和地面实况标签之间图1显示了该过程的细节。然而,这些方法对标记的严重依赖阻碍了它们在现实世界的应用中的应用,在现实世界中,标记信息通常是稀缺的并且获得起来是昂贵的。为了解决这个问题,我们选择设计一个无监督的深度图相似性学习算法。然而,目前的无监督GNN方法主要集中在节点(图)分类或聚类任务,有限的工作已经探索了图相似性学习。 有一些无监督图相似性学习研究,如GA-MGMC[Wanget al. ,2020]和ScGSLC [Liet al. ,2021]。这些作品的主要思想可以概括如下。首先,这些工作对所有图进行聚类,并计算任意两个图的聚类权重C,其中C是基于聚类结果学习的(即,在相同的clus- ter中的图具有更高的C,反之亦然)。然后,节点嵌入用C更新并合并以生成图级嵌入。最后,这些工作使用伪标签和学习的相似性得分来计算损失。图2(左)简要描述了更新节点信息的过程。这些基于聚类的方法存在着忽略交叉图交互中丰富信息的局限性,以及人工选择聚类数目的局限性。具体来说,他们很少考虑跨图的节点到节点匹配,这可以为模型训练提供丰富的监督信号[Liet al. ,2019]。此外,它们需要手动选择用于训练的最佳聚类数量,这在聚类中是必不可少的,但在实践中很难设置因此,这些方法通常导致次优解决方案。为了解决上述问题,我们设计了一种新的无监督图相似性学习方案,称为C对比图匹配网络(CGMN)。我们构造了一种基于增广的视图,并旨在计算图形之间的图形相似性得分。我们首先为图对中的每个图增加两个不同的视图,以提供不同的上下文。通过设计跨视图交互模块,对目标图,对另一视图中的所有节点嵌入进行加权聚合,得到视图级嵌入。然后进行交叉图匹配,输出目标节点的图级嵌入,提取交叉图交互中蕴含的丰富信息。视图级和图级嵌入都连接到节点嵌入,节点嵌入用于在两个视图之间建立对比度以学习图的节点嵌入。我们希望在学习过程中发生节点的交叉图匹配,因此我们在一个图和另一个图的视图之间交互节点信息具有不同上下文的交互节点从不同的视图显示节点到节点的相似性。在节点嵌入训练之后,我们通过池化模块获得整个图的表示。使用图级嵌入计算不同任务的相似性分数图2(右)示出了节点信息更新的过程。我们的贡献可概括如下:• 在无监督图相似度模型中引入对比学习,通过节点到节点的匹配来提高图相似度的准确性,而不是通常使用聚类来模拟相似度计算。• 在同一框架下提出了无监督图相似性学习中的跨视图交互和跨图交互,增强了节点的一致性,填补了基于聚类的方法中两个图不能相互交互的空白。• 我们在8个真实数据集上进行了实验,实验结果验证了我们提出的新方法与SOTA相比的优越性。2相关工作2.1图相似性学习受深度学习的最新进展的启发,使用深度网络计算图相似性已经受到越来越多的关注。第一类是监督图相似性学习,这是一种使用深度特征编码器来学习输入图对的相似性的工作。学习到的相似性分数和基础事实被馈送到损失函数中以优化编码器,从而产生端到端学习方案。例如,GMN [Lietal. ,2019],SimGNN [Baiet al. ,2019]和H2MN [Zhanget al. ,2021]都属于这一类,它们使用GNN作为编码器。 第二类是无监督图相似性学习,例如GA-MGMC [Wanget al. ,2020]、ScGSLC [Lietal. 这些工作的过程是使用深度编码器对节点进行编码,并通过使用聚类权重来更新节点的特征。但它们仅限于聚类,因此难以学习两个图的交叉图交互信息。+v:mala2277获取更多论文∈∈∈∈||||˜˜∈∈··⊕uuuvv2.2图对比学习对比学习在自监督图表示学习中很流行,其目的是通过比较正样本和负样本来学习区分性表示[Heet al. ,2020;Jinet al. , 2021c] 。 例 如 , Deep Graph In-fomax(DGI)[Velickovicet al. ,2019]扩展了Deep Infomax[Hjelmet al. ,2019]通过比较节点和图来学习节点表示。MVGRL[Hassani和Khasahmadi,2020]通过比较不同的图结构来学习节点表示,将图扩散引入到图增强中。GRACE [Zhuet al. ,2020]最大化两个增强图形视图之间的节点表示的一致性。对比学习在无监督图表示学习中显示出令人印象深刻的结果,但它通常用于分类和聚类任务。据我们所知,仍然没有为图相似性学习任务3方法3.1问题定义一个无向属性图G =(V,E,A,X)由一组节点V(V = n)、一组边E(E = m)、邻接矩阵ARn×n和特征维数为d的节点属性矩阵XRn×d组成.如果在节点i和节点j之间存在边,则A i,j= 1,否则A i,j= 0。 对于每个节点,其特征被表示为向量x Rd,其中x i表示节点i的特征值。因此,XRn×d表示图的节点属性矩阵,每个节点具有d个特征。给定两个图G1和G2作为输入,图相似性学习是计算相似性得分y,以便测量输入图对中的两个图之间的差异。可以根据不同的下游任务定义不同的相似性度量。我们的方法试图学习编码器来生成两个图的图级嵌入并计算它们的相似性得分。3.2方法概述图3显示了我们的总体框架CGMN。首先,在部分(a)中,将两个图G1和G2馈送到CGMN中。然后,CGMN执行破坏技术,例如掩蔽节点特征和移除边缘。生成正样本和负样本,通过比较它们来区别地学习节点表示。在图增强之后,我们考虑使用多层GCN来生成输入图及其视图的节点嵌入:Hl=σ(AHl−1Wl−1),(1)其中H是图(视图)的节点嵌入的集合,l是层数,σ是激活函数,A是归一化拉普拉斯矩阵,W是层特定的可训练加权矩阵跨视图交互。受图对比学习的启发,两个视图中对应节点的一致性应该最大化。 具体地,如果节点u G1,View1对应于节点v G1,View2,则节点u的嵌入h u和节点v的嵌入h v可以被认为是一对正样本,而两个视图中的其他节点的嵌入可以自然地被认为是h u的负样本[ Zhu etal. ,2020]。为了最大化节点嵌入之间的一致性,我们需要扩大阳性样本之间的相似性,并减少阴性样本之间的相似性。向量空间中两个节点嵌入的相似度sim(hu,hv):=exp(cos(hu,hv)/τ),(2)这里,cos()给出余弦相似性函数,exp()是指数函数,τ是温度参数,以帮助模型从距离最近但比正例更远的硬负例中学习[Chenet al. ,2020]。然而,上述过程主要考虑视图之间的对应节点的一致性。两个视图中的节点之间的相似性没有被充分考虑。为了解决这个缺点,我们提出了一种跨视图交互方法,该方法用余弦相似度来测量节点到节点的相似度,这丰富了自监督信号。通过图形增强生成两个相关的图形视图G1和G2的技术。然后,将原始输入图及其视图嵌入到一个低层的h=hcos(h,h)h,v∈G1, View2通过GNN编码器在二维向量空间中进行编码二是提供交叉视图交互策略(b)和交叉图交互策略(c)来学习有效的节点嵌入。在部分(d)中,通过池化节点嵌入来获得图级表示。最后,CGMN使用两个图级表示来计算子预测任务的相似性(e)。细节将在本节的其余部分介绍。节点嵌入层。连体网络由两个相同的子网络组成,擅长比较两个输入之间的细微差异我们集成了一个连体网络架构与基于对比学习的GNN作为CGMN的基本节点嵌入层图增广是图对比学习的一个重要组成部分,它用于生成不同的视图,为节点提供不同的上下文,从而促进对比对象的优化我们通过随机哪里是连接。图4示出了对比学习和跨视角互动。跨视图交互有助于保持节点相似性和节点一致性之间的单调递增相关性如果两个视图中的节点是对应的,则它们具有比其他视图更高的跨视图交互得分,这意味着它们在向量空间中的嵌入是接近的,并且促进节点一致性的最大化。跨图交互。图间节点匹配学习是图相似性学习的关键部分如果我们在节点表示训练完成后执行交叉图匹配,我们可能无法更好地学习两个图的交互信息。在上述过程中,我们为每个图增加了两个视图,可以在训练过程中代替图参与跨图的信息交互。具体地说,我们将原始图G1与G2的每个视图进行交互。(三)+v:mala2277获取更多论文i∈G2,View12u v vu|+|G|1 2|12uvk=1uK图3:CGMN概述。首先,我们提供一个框架来学习每个节点的嵌入。其次,我们提出了一种跨图交互策略来匹配图对中的节点。第三,我们聚合节点嵌入以获得图级表示。最后,我们预测不同任务的图的相似性。我们使用注意力机制来实现跨图信息交互。我们设计了注意力函数来计算两个节点嵌入向量之间的相似性得分。我们使用余弦相似性作为注意机制的一种具体形式假设节点u属于图G1,则节点uhu=hu其中v∈w2cos(hu,hi)cos(hu,hj).(四)跨图交互和跨视图交互是不同的。主要的区别不仅在于行动的对象,而且在于行动的目的。跨视图交互的目的是最大化不同视图中的节点一致性,而跨图交互的目的是学习不同图之间的节点在跨视图交互和跨图交互学习之后,我们通过最大化正样本的一致性和最小化负样本的一致性来构建自监督损失:图4:(a)对比学习和(b)跨视图交互之间的差异。预测层。通过图级嵌入计算图的相似度.为了简单起见,我们使用均值池作为默认聚合函数:Z∈=AVG(hu:u∈G),(7)其中AVG(·)表示平均函数。loss(h,h)=−logsim(hu,hv)对于不同的预测任务,我们可以定义不同的方法。u v sim(h,h)+Nsim(h,h)用于计算相似性分数的ODS。在GED任务中,给定两个图G1和G2作为输入,GED(G1,G2)记录了其中u和v是一对正样本,N是阴性样本数量。节点u和节点v都需要计算,那么总损失可以定义为它们的平均结果:L= 1 [loss(h,h)+loss(h,h)]。(六)将G1转换为G2的编辑的错误。 可以定义作为节点或边的插入或删除操作。GED的数量通过exp(−GED(G1,G2))转换为(0,1]中的连续值。在我们的实现中,我们使用多层感知器(MLP)来获得GED分数,其将两个图级嵌入的级联作为输入。(五)+v:mala2277获取更多论文−−{−}±然后,相似性得分计算为:y=sigmoid(MLP(Z<$1<$Z<$2))。(八)二进制相似性检测(BSD)任务的目的是预测给定的图是否相似或不。输入的两个图被标记为标签y=其中1表示输入的两个图相似,1表示这两个图不相似。我们的目标是找出在输入的两个图之间,计算出的相似性得分将被分类为相似(1)或不相似(1)。我们使用以下余弦相似度作为相似度度量:y=cos(Z<$1,Z<$2).(九)我们通过比较预测的相似性得分与地面实况来评估模型的性能,并在随后的章节中详细介绍了我们提出的模型在这两种类型的任务上的性能。4实验在本节中,我们使用八个基准数据集系统地评估了我们提出的GED和BSD任务具体来说,我们首先介绍这两个任务的数据集最后给出了主要的评价结果并进行了烧蚀实验。4.1数据集我们在八个公共数据集上评估我们的模型,这些数据集通常用于图相似性问题[Linget al. ,2021]。数据集的统计数据汇总于表1. 在GED任务中,我们使用了两个基准数据集,包括Aids700nef和Linux1000。我们遵循先前的作品[Lingetal. ,2021]并将每个数据集分成60%、20%、20%,用于训练、验证和测试集检索。OpenSSL(OS)和FFmpeg(FF)数据集用于BSD任务,其中[3,200]表示图对的大小范围数据集分为10%,10%,有监督方法的训练/验证/测试集为80%,无监督方法的训练/验证/测试集为80%,10%,10%4.2基线设置&我们将CGMN与两种监督GNN方法和三种最先进的无监督GNN模型进行了比较。监督方法包括GCN [KipfandWelling,2017]和GIN [Xuet al. ,2019]。无监督方法包括DGI [Velickovicet al. ,2019],GRACE [Zhuet al. ,2020]和ScGSLC [Lietal. ,2021]。前四种是图表示学习方法,最后一种是基于无监督聚类的图相似性学习方法。我们采用3层GCN作为我们的核心编码器。学习率统一设置为0。0001,并且图形编码器、投影仪和预测器的潜在维度被固定为一百我们将GED任务和BSD任务视为下游任务。在GED任务中,我们对监督基线使用相同的设置,包括数据集分区,学习率等。误差(MSE)损失与所有来自训练集的地面事实数据集图平均N平均E类Aids700nef7008.908.80-Linux100010007.586.94-OS [3,200]73,95315.7321.974,249操作系统[20,200]15,80044.8967.151,073OS [50,200]4,30883.68127.75338FF [3,200]83,00818.8327.0210,376FF [20,200]31,69651.0275.887,668FF [50,200]10,82490.93136.833,178表1:数据集的统计。对于无监督基线,我们使用多层感知器(MLP)将预测的相似性分数映射到GED分数分布区间,为此,我们通过使用具有1%GED地面真实的MSE损失来微调预测分数和GED分数之间的映射在BSD任务中,我们使用与GED相同的方法训练监督模型。对于无监督基线,我们使用它们的自包含损失进行图表示学习。我们重复所有实验十次,并报告平均分数和标准差。4.3评价结果我们系统地评估了消融研究和参数分析这两项任务的总体性能。GED任务。我们主要使用MSE作为GED任务的评估度量,其测量预测的相似性分数与GED地面真实值之间的均方误差。我们还提供了其他评估指标,如Spearman在k(p@k)处的精度通过将交点除以预测的前k个结果和地面实况前k个结果的结果。如表2所示,我们的模型CGMN在Aids700nef的四个指标上优于其他基线方法,甚至部分超过了监督算法。与最优监督模型相比,CGMN的MSE值提高了28。43%,与联合国相比监督算法,MSE值增加了45。百分之四十六在Linux1000数据集上,我们在三个指标上实现了最优性和次优性在其他两个评价指标。与有监督模型和无监督模型相比,CGMN模型的MSE值提高了12。28%和21。67%,这证明了我们的新模型的优越性。BSD任务。 ROC曲线下面积(AUC)作为BSD任务的评估指标,其中AUC和模型性能正相关。总体结果见表3。我们将最佳结果加粗,' '表示数值范围。与无监督方法相比,我们的模型CGMN在所有六个数据集上的所有指标方面都始终如一地实现了卓越的性能。CGMN可以学习一个很好的嵌入函数,可以推广到不可见的测试图。消融研究。为了验证跨视图交互和跨图交互的有效性,我们采用了两个+v:mala2277获取更多论文Linux10000.280 ±0.163 0.629±0.020 0.462±0.016 0.044±0.01812.176±1.693 0.366±0.186 0.261±0.134 0.038±0.0046.641± 2.227 0.674± 0.129 0.502± 0.107 0.084± 0.01922.188±5.259 0.647±0.112 0.484±0.099 0.081±0.018 0.084±0.0250.052 ± 0.018 0.039±0.002 0.035±0.020 0.073±0.01614.180±2.080 0.852±0.019 0.673±0.0250.443±0.155 0.452±0.17513.423±2.038 0.840±0.010 0.658±0.021 0.192±0.095 0.213±0.12010.514±1.178 0.873±0.013 0.700±0.0150.307±0.071 0.330±0.091表2:GED数据集上五个评价指标的实验结果66.60±0.10 63.85±0.56 75.65±0.30 78.38±0.20 81.25±0.5781.82±0.2567.55±2.76 63.58±1.96 72.58±2.36 86.10±0.66 80.82±2.22 66.28±0.3068.84±2.45 67.01±0.49 69.86±0.29 85.44±0.27 75.05±0.73 66.95±2.7867.43±0.82 61.46±0.33 63.28±0.09 87.57±0.8283.27±0.71 69.80±1.2280.89± 0.20 78.15± 0.85 75.94± 1.8686.11±0.9886.76± 0.8577.98±2.69表3:BSD数据集上的实验结果,以AUC分数(%)表示。方法MSEρτp@10 p@20CGMN,不带横视图8.239 0.6140.451 0.0640.114CGMNw/o交叉图8.753 0.5370.387 0.0500.091CGMN6.641 0.6740.502 0.0840.140表4:Aids700nef的消融研究。Aids700nef上的CGMN变体,每个变体都删除了一个关键组件表4显示了消融研究的结果,其中w/o表示去除策略。实验结果表明,我们的模型的性能下降,没有一个关键的策略Aids700nef。我们发现CGMN达到24. 相对于MSE(10−3)的其他变体高13%。在其他评估指标中,CGMN与它的两个变体,这证明了我们提出的两个方案的组合的有效性参数敏感性分析。我们分析了两个重要参数,即,在图形扩充期间生成两个视图时掩蔽特征的概率和去除边缘的概率。我们以不同参数的Aids700nef数据集为例进行了实验,图5显示了参数敏感性对CGMN性能的影响。水平坐标表示屏蔽节点特征或删除边缘的概率,垂直坐标表示MSE(10−3)。为例如,0. 1表示随机掩蔽节点特征,概率10%图如图5(a)和(b)所示,尽管折线图中存在这意味着增加修改概率(a) 掩蔽节点功能。(b)去除边缘。图5:对参数的影响。过度地可能使图形结构和特征信息失真,从而导致显著的性能下降。5结论图的相似性学习是图问题中的一个关键问题。在本文中,我们提出了一种新的无监督图相似性学习方法CGMN。使用一个连体GNN作为骨干,我们设计了一个跨视图的交互策略,以丰富的自监督信号。为了进一步跨图匹配节点,我们引入了跨图交互机制来进行节点之间的跨图匹配。实验结果表明,与SOTA方法相比,该方法具有优越性和有效性致谢这项工作得到了国家自然科学基金61876128和美团项目的部分支持。DGI恩典ScGSLCCGMNDGI恩典ScGSLC数据集方法MSE(10−3)ρτp@10p@20Aids700nefGCNGINDGIGRACEScGSLCCGMN11.395±1.31515.009±0.34713.060±0.1930.577±0.0210.231±0.0930.394±0.1330.418±0.0180.164±0.0610.281±0.0970.041±0.0020.039±0.0060.080±0.0260.077±0.0030.096±0.0210.076±0.0010.072±0.0180.142± 0.0440.140±0.024GCNGIN11.986±1.5320.569±0.0330.411±0.0280.043±0.0050.071±0.001CGMN方法OS [50,200]操作系统[20,200]OS [3,200]FF [50,200]FF [20,200]FF [3,200]GCNGIN67.24±1.1468.09±1.0173.51±0.7278.41±0.4979.47±0.0880.88±0.18+v:mala2277获取更多论文引用[Bai et al. Yunsheng Bai,Hao Ding,Song Bian,TingChen,Yizhou Sun,and Wei Wang.Simgnn:一种快速图相似度计算的神经在ICDM,第384-392页[Bai et al. Yunsheng Bai,Derek Xu,Yizhou Sun,andWei Wang.Glsearch:通过学习搜索的最大公共子图在ICML,2021年。[Bunke,1997] Horst Bunke.图编辑距离与最大公共子图关系。Pattern Recognition Letters,18(8):689[Chen et al. 陈婷,西蒙·科恩布里斯,莫汉-马德·诺鲁齐和杰弗里·辛顿。视觉表征对比学习的一个简单框架ICML,第1597-1607页。PMLR,2020年。[Hassani 和 Khasahmadi , 2020] Kaveh Hassani 和 AmirHosein Khasahmadi。图上的对比多视图表示学习。ICML,第4116-4126页。PMLR,2020年。[He et al. 何开明、范浩奇、吴宇欣、谢赛宁和RossGirshick。用于无监督视觉表征学习的动量对比。CVPR,第9729-9738页,2020年[Hjelm et al. ,2019] R. Devon Hjelm,Alex Fedorov,Samuel Lavoie-Marchildon , Karan Grewal , PhilipBachman,Adam Trischler,and Yoonne Bengio.通过互信息估计和最大化来学习深度表示。2019年,在ICLR[Jia et al. JiaRenqi , Xiaofei Zhou , Linhua Dong , andShirui Pan.用于群组推荐的超图卷积网络。见ICDM,第260-269页。IEEE,2021年。[Jin et al. , 2021 a] Di Jin , Cuiying Huo , ChundongLiang和Liang Yang。基于属性完备化的异构图神经网络在WWW,第391-400页[Jin et al. ,2021 b] Di Jin,Zhizhi Yu,Pengfei Jiao,Shirui Pan,Dongxiao He,Jia Wu,Philip Yu,andWeixiong Zhang.社区检测方法综述:从统计建模到深度学习。TKDE,DOI:10.1109/TKDE.2021.3104155,2021。[Jin et al. Ming Jin,Yizhen Zheng,Yuan-Fang Li,ChenGong,Chuan Zhou,and Shirui Pan.用于自监督图表示学习的多尺度在IJCAI,第1477-1483页[Kipf and Welling,2017] Thomas N.Kipf和Max Welling图卷积网络的半监督分类。在ICLR,2017年。[Li et al. Yujia Li,Chenjie Gu,Thomas Dullien,OriolVinyals,and Pushmeet Kohli.用于学习图结构对象相似性的图匹配网络. ICML,第3835-3845页。PMLR,2019年。[Li et al. 李俊义,姜伟,韩亨利,刘静,刘波,王亚东。Scgslc:一个用于单细胞rna-seq数据聚类的无监督 图 相 似 性 学 习 框 架 计 算 生 物 学 和 化 学 , 90 :107415,2021。[Ling et al. Xiang Ling ,Lingfei Wu,Saizhuo Wang,Tengfei Ma , Fangli Xu , Alex X. Liu , ChunmingWu,and Shouling Ji.用于深度图相似性学习的多级图匹配网络。IEEE Transactions on Neural Networks andLearning Systems,第1-15页[Neuhaus et al. Michel Neuhaus , Kaspar Riesen , andHorst Bunke. 图 编 辑 距 离 的 快 速 次 优 算 法 。 见S+SSPR,第163-172页。施普林格,2006年。[Riesen and Bunke,2009] Kaspar Riesen and Horst Bunke.利用二分图匹配计算近似图编辑距离。Image andVision computing,27(7):950[Sanfeliu and Fu,1983] Alberto Sanfeliu and King-Sun Fu.一种用于模式识别的属性关系图之间的距离度量。IEEE transactions on systems,man,and cybernetics,(3):353[Su et al. 苏怡欣,张瑞,Sarah M. Erfani和Junhao Gan。基于神经图匹配的协同过滤。见SIGIR,第849-858页。ACM,2021年。[Velickovic et al. Petar Velickovic , William Fedus ,WilliamLHamilton , PietroLio` , YoesiBengio , andRDevon Hjelm.深度图infomax。2019年,在ICLR[Wan et al. , 2021] Sheng Wan , Shirui Pan , PingZhong,Xi- aojun Chang,Jian Yang,and Chen Gong.用于高光谱图像分类的对偶交互图卷积网络IEEETransactions on Geoscience and Remote Sensing,60:1[Wang et al. ,2020]王润忠,严俊池,杨Xi- aokang.联合多图匹配和聚类的分级分配及其在无监督图匹配网络学习中的应用。2020年,在NeurIPS[Wang et al. Runzhong Wang , Tianqi Zhang , TianshuYu,Junchi Yan,and Xiaokang Yang.通过动态嵌入的图编辑距离的组合在CVPR中,第5241-5250页[Xu et al. Xiaojun Xu , Chang Liu , Qian Feng , HengYin,Le Song,and Dawn Song.基于神经网络的图嵌入跨平台二进制代码相似性检测。在CCS中,第363-376页[Xu et al. Keyulu Xu,Weihua Hu,Jure Leskovec,andStefanie Jegelka.图形神经网络有多强大?2019年,在ICLR[Yu et al. Zhizhi Yu , Di Jin , Ziyang Liu , DongxiaoHe,Xiao Wang,Hanghang Tong,and Jiawei Han.As-gcn:用于文本丰富网络的图卷积网络的自适应语义架构在ICDM,2021。[Zhang et al. Zhen Zhang,Jiajun Bu,Martin Ester,ZhaoLi,Chengwei Yao,Zhi Yu,and Can Wang. H2mn:使 用 分 层 超 图 匹 配 网 络 进 行 图 相 似 性 学 习 。 在SIGKDD中,第2274-2284页[Zhu et al. Yanqiao Zhu,Yichen Xu,Feng Yu,QiangLiu,Shu Wu,and Liang Wang.深度图对比表示学习。2020年,《国际反洗钱法》
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)