没有合适的资源?快使用搜索试试~ 我知道了~
基于知识图嵌入Marco Brambilla,Birant AltinelPolitecnico di Milano,DEIB列奥纳多·达·芬奇广场32号I-20133米兰,意大利{firstname.lastname} @ polimi.it摘要近年来,主题建模技术已经应用于许多场景,跨越文本内容以及许多不同的数据源。现有的研究在这一领域不断试图提高结果的准确性和一致性。最近的一些工作提出了新的方法,捕捉词之间的语义关系到主题建模过程中,通过采用向量嵌入知识基础。在本文中,我们研究了知识图嵌入如何影响文本内容的主题建模性能的各个维度特别是,这项工作的目标是确定知识图嵌入的哪些方面对提取主题的准确性有重大和积极的影响。为了获得一个很好的理解的影响,该过程的所有步骤进行了检查和各种参数化的技术进行了探讨。基于这些发现,我们通过使用更先进的嵌入方法和参数化来改进现有技术,从而产生更高质量的主题。该工作还包括一组实验与2个变化的知识库,7种嵌入方法,和2种方法的嵌入纳入主题建模框架,也考虑了一组变化的主题数和嵌入维数。介绍在当今的信息时代,世界各地每秒都在生成和收集越来越多的数据。这些数据中有很大一部分是文本内容,随着世界上的一切都变得更加数据驱动,理解大量文本内容的需求不断增加,但主要是因为自然语言处理和机器学习领域提供了自动理解大量文 本 数 据 的 能 力 。 单 词 的 矢 量 表 示 ( Mikolov etal.2013 ) ( RehurekandSojka2010 ) ( Pennington ,Socher,and Manning 2014)(Joulin et al.2016)已被用于许多自然语言处理任务,如句法分析(Socher et al.2013 a)和情感分析(Socher et al. 2013 a)。版权归作者所有。以.马丁,K. Hinkelmann,A. Gerber,D.Lenat,F.van Harmelen,P.Clark(Eds.),AAAI 2019春季研讨会将机器学习与知识工程相结合斯坦福大学,帕洛阿尔托,加利福尼亚州,美国,2019年3月25日至27日。2013 b),并且它也被用于主题建模领域(Hinton和Salakhutdinov 2009 ) ( Srivastava , Salakhutdinov 和Hinton 2013)(Cao等人2015)(Nguyen等人2015)(Yao等人2017)。其中一篇论文使用了一种称为KGE-LDA的方法(Yao et al.2017)旨在通过从外部知识 库 ( 如 WordNet ( Miller 1995 ) 和 FreeBase(Bollacker et al.2008)而不是从文件中学习根据他们报告的结果,这种方法是成功的,与LDA相比,主题一致性提高了9.5%至44%,文档分类准确性提高了1.6%至5.4%(Blei,Ng和Jordan 2003)。他们的方法通过一种特定的方法来获得单词表示来改善结果,但目前向量嵌入方法在链接预测等其他领域已经被证明是比较成功的,它可以更准确地捕捉外部知识库的语义在这种情况下,另一个有待回答的问题是,实体方面的更大的知识库或实体之间关系方面的更密集的知识库这个问题的主要动机在于知识图不具有真实世界的完整语义表示,并且可以通过实体之间的不同关系来改进本文提出了两种改进主题建模的方法。第一种方法通过计算同一网络上的向量,应用多种多关系网络嵌入方法,并将结果纳入主题建模框架中,作为本工作的基础方法。上述嵌入方法都遵循基于预防的向量方法,对原始工作TransE进行了增量改进(Bordes等人,2013年)。由于知识嵌入越来越多地用于主题建模,因此缺乏对不同方法编码的知识的效果的全面研究。因此,本文的主要目的是通过应用更先进的方法和知识库来获得更好的知识图,从而推动该领域的发展嵌入,以改善主题建模。第二种方法修改了知识图本身的网络,并通过添加句子中的词之间的句法依赖关系来显著增加网络的密度,所述句子是从用于主题建模的相同文本语料库中计算的这种组合是通过计算文本语料库中句子的依赖树来实现的它研究了这个密集网络在实体之间的关系方面编码的知识,以及它如何影响嵌入和连续主题建模的整体性能本文的结构安排如下:第二部分介绍了相关的工作。第3节包含了本文中使用的方法的细节第4节描述了所用方法的源代码和实现第5节介绍了实验的结果,并讨论了这些结果。第六部分总结并提出了今后可能的工作。相关工作在这一部分中,对现有文献中的著作进行了论述,构成了本文研究的重点和方向。 KGE-LDA(Yaoet al.201 7)直接是本文所关注的基于知识图嵌入的主题建模的 基 础 工 作 。 另 一 方 面 , LF-LDA ( Nguyen et al.2015)是一种较老的方法,它引入了使用单词嵌入来改进主题建模的想法。这些方法的讨论旨在为本文提出的主要思想和实验创建一个通用的视角KGE-LDA(Yao et al. 2017)是一种基于知识的主题模型,它将著名的LDA模型与从知识图中获得的实体嵌入相结合。它提出了两个主题模型,其中包含单词的向量表示,通过从WordNet(Miller 1995)和Freebase(Bollacker etal. 2008)等知识库中获取它们。这两个主题模型是基于以前的作品CI-LDA(纽曼,Chemudugunta,和Smyth 2006)和Corr-LDA(Blei和Jordan 2003)。本文的贡献为本文的研究和尝试完善奠定了基础。本文采用KGE-LDA的主题模型他们的声明和结果表明,从知识图编码的知识比比较的方法更好地捕捉语义。为了处理嵌入问题,提出了Gibbs抽样推理方法.KGE-LDA扩展了两个实体主题模型,即CI-LDA(Newman,Chemudugunta和Smyth 2006)和Corr-LDA(Blei和Jordan 2003),以便将学习到的实体嵌入到主题模型中。在本文中,基于CI-LDA的模型被称为KGE-LDA(a),基于Corr-LDA的模型被称为KGE-LDA(b)。有关这些方法的细节将在以下小节中讨论模型的图形表示可以是见图1。图1:KGE-LDA(a)和KGE-LDA(b)模型的表示(Yao et al. (2017年)LF-LDA是Latent Feature LDA的缩写,它旨在通过将潜在特征向量与KGE-LDA相似的观点结合起来来改进主题建模不同的是,除了发表在KGE-LDA之前,本文直接从文本语料库本身获得潜在特征表示。它使用著名的word2vec(Mikolov et al. 2013)方法来计算大型文本语料库上的嵌入,稍后将在较小的语料库上用于主题建模。它的主要贡献是使用大量的外部数据来计算词嵌入。LF-LDA扩展了两个主题模型,LDA(Blei,Ng和Jordan 2003)和DMM(Nigam et al. 2000)通过向Dirichlet多项式分量添加潜在特征分量,该分量从每个主题模型中的top- ics生成单词(Nguyen et al. 2015)。扩展的方法被称为LF-LDA和LF-DMM。LF-LDA的图示见图2。图2:LF-LDA模型的表示(Nguyen etal. (2015年)面向主题建模的知识图嵌入方法的改进本文的重点是探讨改进之处知识图嵌入及其对主题建模性能的影响。有三个探索的维度◦在知识图嵌入过程中,假设对性能有直接影响。这些维度是嵌入方法的性能、知识库中的信息以及嵌入的向量维度。本章将介绍这些维度以及如何探索它们。包埋方法应用选择以下模型进行实验。TransE(Bordes et al. 2013)是KGE-LDA(Yaoet al. 2017),而选择相应论文的以下模型是因为它们直接或间接地与TransE进行了比较,这使我们更好地了解了它们的性能差异。上述论文在各自的论文中改进了知识图嵌入的最新技术。我们的假设是,基于其他理由(如链接预测)改进transE结果的模型也应该在主题建模结果中提供类似的改进为了创建平等理由的比较,所有这些模型都应该使用相同的数据集,相同的参数进行训练,并产生相同嵌入维度的输出。通过保持所有其他变量相同,这种方法的结果有助于确定方法和配置,通过在主题建模中产生最高的准确性来进一步移动最先进的技术以下小节解释了所比较的嵌入方法的主要特征和差异:transEtransE模型将图中的关系表示为嵌入空间中的平移(Bordes et al. 2013)。例如,在一个三元组(头、关系、尾)中,向量算术方程头+关系=尾应该成立。在这个模型中,空向量将表示头和尾实体的等价性。这也意味着,如果图的语义被正确捕获,则向量算术向量(如前所述,TransE是基线方法KGE-LDA的一部分,在实验中将与以下方法进行比较。transHtransH模型,除了transE所做的翻译操作之外,还将关系建模为超平面(Wanget al. 2014)。动机是这样一个事实,即存在自反、一对多、多对一和多对多等属性;并且需要表示这些映射属性。他们声称TransE没有成功地保护这些财产。DistMult该模型也直接针对TransE模型进行改进,主要区别在于向量的组成与TransE不同的是,通 过 前 面 小 节 中 所 解 释 的 加 法 ( 头 + 关 系 = 尾 ) ;DistMult通过加权的逐元素点积,换句话说,以下乘法运 算 来 组 成 向 量 : 头 × 关 系 = 尾 ( Yang et al. 2014年)。transR transR模型试图解决所有实体和关系的相同语义空间建模嵌入不足的问题(Lin et al. 2015 b)。它建立在transE和transR的基础上,在不同的语义空间中建立实体和关系嵌入。PTransEPTransE通过利用知识图中的多步关系路径建立在先前的方法之上。他们的方法类似于TransE,增加了基于关系路径的学习(Lin et al. 2015a)。简而言之,它们将路径中的连续关系连接到一个单一的关系中,例如关系1关系2 =关系路径,并在模型中使用这些路径。HolE是“全息嵌入”的缩写,该模型采用的不同之处在于学习整个知识图的组合向量空间表示(Nickel等人,2016)。它使用相关性作为合成运算符.文中还将HolE的结果与TransE、TransR等嵌入方法的结果进行了比较。一 个有 趣 的事 实 是 , HolE 被 证 明 与 另 一 种 称 为ComplEx的方法(Trouillon et al. 2016年),同年也出版 了( Hayashi 和 Shimbo2017 ) 。 由 于 这 一 事 实 ,ComplEx在这项工作中被排除在实验之外。类比类比提出了关于实体和关系嵌入的类比属性的潜在特征表示的优化(Liu,Wu和Yang 2017)。它还统一了多关系嵌入中的几种方法,即DistMult(Yanget al.2014 ) 、 ComplEx ( Trouillon et al. 2016 ) 和 HolE(Nickel et al. 2016年)。 并在实验中与本文所提到的方法进行了比较。在表1中,比较了所描述的方法的时间和空间复杂度以及基于依赖树的知识图扩展前两部分观察了嵌入模型和过程的效果;本部分重点关注知识图的密度和质量,嵌入模型是用知识图训练的。因此,作为知识图谱的新信息来源,文本语料库本身就是一个很好的答案。句子中的依存关系构成有意义的语义,是一个相当庞大的信息源.仍然需要回答的问题是,知识图和依赖图中的语义关系是否相互兼容?他们能创造出更丰富的知识基础吗?目前的嵌入方法是否能够捕获编码在结果海量图中的信息?22句子的依赖树Word1依赖关系Word3Word2word4表1:不同包埋方法的特征。参数:d:嵌入大小,ne:实体数,nr:关系数,h:头实体,r:关系,t:尾实体,wr:r的向量表示,p:路径时间复杂度空间复杂度评分函数transEO(d) O(ne d+nr d)− n h+r −t h1/ 2TtransHO(d)O(ned+2nrd)− <$(h−wrThwr)+r−(t−wrTtwr)<$2时间复杂度O(d)O(ned+nrd)PtransEO(d) O(ned+nrd) − <$p −(t −h)<$transRO(d2)O(ned+nrd+nrd2)− <$(Mrh)+r −(Mrt)<$2孔O(dlogd)时间复杂度O(ned+nrd)rT(h *t)类比O(d)时间复杂度O(ned+nrd)hTMrt为了回答这些问题,本文中使用的知识图(WN18)与由20NG文本语料库获得的DepartmentGraph合并正如在实验部分的数据集小节中可以看到的细节一样;图的密度增加了大约5倍,这肯定会创建更复杂的语义结构。合并阶段的一般结构如图3所示。该过程找到每个句子的依赖关系树。然后,找到每个词在知识图谱中的对应实体,如果词和计算的依赖关系通过过滤阶段,则在知识图谱中的对应实体之间以依赖关系的名称添加新的链接。知识图扩展知识图依赖关系Synset(“word1”)Synset(“word2”)Synset(“word1”)Synset(“word2”)关系1关系2关系1关系2Synset(“word3”)Synset(“word3”)图3:知识图谱扩展的可视化参数的进一步探索本节旨在增加主要参数,以衡量其对最终结局的影响。其动机是,只要计算限制和可行性允许,更好的参数和设置应该使用,如果它提供了可观的性能改善。根据这一动机,考虑了以下几个方面。第一个要研究的方面是嵌入维数对主题建模性能的影响的Session提供了更多的空间来编码语义,但它自然会带来性能成本。此外,主题模型中主题数的选择也会对性能产生直接的影响考虑到KGE-LDA(Yao等人,2017)的结果,其中准确性随主题数量增加而增加,应观察主题数量及其影响的显著增加最后,还应该使用增加的参数来检查前一节中描述的扩展知识图方法,因为从更大的图编码的信息甚至可以通过更高维的嵌入和更高的主题编号提供更好的执行基本主题建模框架为了将学习到的嵌入与主题建模的过程合并,使用其作者的KGE-LDA的原始实现。最初的实现是chosen,因为KGE-LDA是本文遵循的基线工作;因此它源代码结构为Java项目,并依赖于Stanford CoreNLP库。与KGE-LDA一起,该项目包含LDA(Blei,Ng和Jordan 2003)和CTM(Blei和Laf-ferty 2006)的实现。在实验的第三部分(Kno图扩展)的实现中作了一些改动和补充。新增内容如下:使用CoreNLP Dependency- Parser解析20 NG数据集并获得依赖树。用获得的依赖关系更新WN18图。• 在整个源代码中进行了一些小的修改嵌入方法为了进行嵌入方法比较的实验,需要实现所选择因此,transE、transH、transT和PTransE的实现取自开源项目KB2E2。Dist的实现这方面的动机是,知识图或数据集获取时,它会创建更多的信息存储在嵌入中。更大的矢量尺寸-1https://github.com/thunlp/KB2E/https://github.com/yao8839836/KGE-LDA··←−←−←−Mult、HolE和Analogy来自开源项目OpenKE3。依赖解析器本 文 的 知 识 图 扩 展 部 分 使 用 了 Stanford CoreNLPDependencyParser Annotator使用DependencyParser,用Java实现了知识图扩展部分的代码该过程和实现遵循以下算法:算法1:具有依赖树的知识图扩展1知识图谱WN 18;2依赖网络空图;3 对于20NG中的文档d,4代表句子sinddo对于每个不同的实验组,说明了所使用的数据集以及所选择的参数进行实验以找到以下问题的答案1. 更新和改进的嵌入模型是否能够捕获更好的语义用于主题建模?2. 主题的数量如何影响这些方法集的性能?3. 更密集和更复杂的知识库是否会产生更好或更差的实体编码?4. 矢量维数在捕获和编码信息中的重要性是什么?我们是否需要更大的向量来更准确地表示所使用的数据集?实验分为三类,567端8端% t DependencyParser(s);DependencyNetworkappend% t;每个人都试图回答上述相应的问题我们进行了三组实验:(1)嵌入方法的应用和比较;(2)知识图9 KnowledgeGraph合并依赖网络;10 returnKnowledgeGraph;要可视化依赖关系如何与知识图合并,请参见图4。“此外,卫星地面设备的销售额在下一次修订时应该会上升“依赖解析器化合物设备卫星图4:将句子中的依赖关系与知识图图4中的示例显示了从句子中提取的依赖关系如何更新知识图。在该具体示例中,在知识图中存在从“设备”实体到“卫星”实体的“下位词”关系。依赖解析器发现这两个词在对应句子中的复合词中使用,并使用“复合”关系更新知识图实验在本节中,介绍了一系列涉及不同方法和参数变化的3https://github.com/thunlp/OpenKE(3)参数的进一步探索。基线选择两个主题模型来比较实验结果:• LDA(Blei,Ng和Jordan2003)• KGE-LDA(Yaoet al. (2017年)LDA被选为性能的主要指标,因为它选择KGE-LDA作为主要性能指标,因为它是本文工作的基线方法和起点。数据集文本语料库本工作中的数据集是指用于运行主题模型的 文 本 语 料 库 。 为 此 , 使 用 了 20-Newsgroups ( 20NG)数据集该数据集包括18,846个文档,分为20个类别,词汇量为20,881个不同的单词。在文本预处理阶段,将对数据应用以下步骤:令牌化(使用StanfordCoreNLP),停止词删除和罕见词删除(对于在整个数据集中出现少于10次的单词)。外部知识外部知识是指用于训练表示学习方法以获得词嵌入的知识图。WN18是广泛使用的词汇知识图WordNet的子集WN 18在训练集中具有以下特征:141,442个三元组(WN 18缺失的10,000个三元组在测试和验证集中); 40,943个实体; 18种关系; 8,819个与20 NG词汇表共同的实体。表2显示了知识图谱中出现的前10种关系类型,它们的出现次数以及在整个图谱中的大小百分比知识图下位词设备卫星扩展知识图化合物设备卫星下位词表2:原始WN18数据集中前10个关系的发生次数和数量关系计数图表百分比下位词34832百分之二十四点六上位词34796百分之二十四点六衍生相关形式2971521.0%成员Meronym74025.23%成员全称73825.22%有分4816百分之三点四的一部分4805百分之三点四域主题31182.20%Synset Domain主题31162.20%实例下位词29352.08%如前所述,前一小节中的知识图与从20NG文本语料库获得的依赖图合并。所得图具有以下特征,这些特征相对于原始知识图(WN 18)有所增加:• 817,568三胞胎,相对于原来的141,442;• 55种关系,比原来的18种增加。知识图谱中引入了新的关系,但没有新的实体。为了说明知识图是如何变化的,下面是前10个出现的关系类型,它们的出现次数,以及在整个图中的百分比:表3:扩展WN18数据集中前10个关系的发生计数和数量关系计数图表百分比根3011715.0%标称修改器9053111.1%化合物786549.62%直接宾语564236.90%形容词修饰语538196.58%依赖359304.39%下位词348324.26%上位词347964.26%的混合332234.06%辅助307753.76%可以看出,知识图的结构已经发生了很大的变化,增加了大量的内容。通过扩展,图的大小比原始知识图增长了578%,并增加了37种新的关系类型。设置为执行和验证该方法,定义了一组不同参数的设置一些参数在实验中采用恒定值,而另一些参数在实验中变化。考虑的设置包括:表4:包埋方法比较设置参数名称参数值嵌入维数50Gibbs抽样迭代1000学习率0.001超参数α50/K(主题数)超参数β0.01主题数(K)二十三十四十五十表5:进一步探索实验设置参数名称参数值嵌入尺寸100题目50、1001. 嵌入方法比较设置:所有参数均已固定,但主题数(和相应参数α)除外,如表4所示;2. 知识图谱扩展的设置:设置与嵌入方法比较组的设置相同。3. 用于进一步探索参数的设置:为了深入研究参数值的详细调查,已经启动了具有新设置变化的另一组实验,其值如表5所示。 相对于初始实验(如该列表的第1点中的参数化),嵌入维度增加到100,主题数量增加到100。结果结果通过两种不同的评价机制获得,即主题一致性和文档分类。使用逐点互信息的UCI方法(Newman等人,2010)用于主题建模,并且使用LIBLINEAR线性分类库(F an等人,2010)。2008年,用于文件分类。在本小节的其余部分,将介绍和讨论这些结果包埋方法比较如前所述,使用基于PMI的主题一致性来获得这些结果。为了计算PMI,使用了4,776,093篇维基百科文章的数据集。对于每种方法和主题,结果运行5次,然后计算平均值和标准差结果见表6。72.370.669.268.868.76967.570.770.469.669.769.669.569.471.471.37170.370.670.670.270.268.8 68.8 68.867.866.768.770.370.469.569.969.869.569.670.5707070.370.669.468.472.67170.970.470.270.469.877777777757575757373717169696767656573 7169676573 7169676563TransETransRTransH孔K = 20DistMult类比PTransERNN63K = 30TransE TransH DistMult PTransE RNN TransR HolE模拟63TransETransRTransH孔K = 20DistMult类比PTransERNN63K = 30TransE TransH DistMult PTransE RNN TransR HolE模拟20个专题30个专题20个专题30个专题777573 7169676563K = 40TransE TransH DistMult PTransE RNN TransR HolE模拟7775 737169676563K = 50TransE TransH DistMult PTransE RNN TransR HolE模拟777573 7169676563K = 40TransE TransH DistMult PTransE RNN TransR HolE模拟7775 737169676563K = 50TransE TransH DistMult PTransE RNN TransR HolE模拟40个专题50个专题图5:通过不同的嵌入方法获得的主题建模的主题一致性得分,以主题编号表6:主题建模的嵌入方法的主题一致性结果。最佳结果以粗体显示。型号K = 20 K = 30 K = 40 K = 50LDA 68.4± 2.6372.5±1.87 70.9±1.7471.6± 0.45transE(a)68.8± 3.56 70.6± 2.08 69.6± 1.13 71.4± 1.82transE(b)70.2± 1.79 70.3± 0.52 70± 1.56 71± 1.41transH(a)67.5± 2.4 70.1± 1.4 69.7± 0.99 70.3± 1.37transH(b)68.8± 1.25 69.5± 1.51 70.5± 0.8 70.4± 0.35DistMult(a)68.7± 1.97 69.8± 0.95 70.7± 1.34 71.3± 1.62DistMult(b)67.8± 2.11 69.9± 2.25 70± 0.79 70.2± 1.8PTransE RNN(a)70.6 3.1 69± 1.66 69.6± 1.81 70.6± 1.93PtransE RNN(b)68.8± 3.21 69.8± 1.8 70.3± 1.92 69.8± 0.96TransR(a)72.3±2.4168± 1.27 69.5± 0.95 70.6± 1.79TransR(b)66.7± 2.09 69.5± 1.84 68.4± 1.59 70.9± 0.54孔E(a)69.2± 3.51 70.3± 1.78 70.4± 1.21 70.2± 2.14孔E(b)68.8± 1.23 69.6± 2.33 70.6± 2.2 70.4± 1.78类比(a)69± 1.88 70.3± 2.5 69.4± 2.1 71± 0.52类比(b)68.7± 2.25 70.4± 1.24 69.4± 2.4472.6±1.41总体主题一致性结果每个主题编号的最佳和第二一致性得分是不同的,并且应该注意的是,原始LDA的性能始终良好。transR导致更连贯的主题与较低的主题数,和类比执行最好的主题数较高。总的趋势显示,随着主题数量的增加,情况有所改善。主题连贯模型A对于30、40和50个主题,主题连贯结果接近,并且在相同的范围内。在一致性方面唯一显著的视觉差异可以在主题20中观察到,40个专题50个专题图6:通过不同嵌入方法获得的主题建模的主题一致性得分,以主题编号transR的性能优于其他方法。还值得一提的是,TransR在主题数为20时表现最好,而在30个主题上表现最差。对于20个主题,标准差似乎高于所有组合中最好(transR)和最差(transH)得分的较高主题数。模型B在模型B中,主题数也有改进的总趋势总趋势中的标准差也随着主题数的增加而变小TransR在20个主题上得分最低,尽管它在模型A的20个主题上得分最高。得分最高的组合是类比法,有50个题目。文档分类结果使用LIBLINEAR(F an et al. 2008)对文档进行分类。对于每个方法和主题,结果运行5次。表7中报告了每种方法和主题编号的平均值和标准差总体文档分类结果表7显示,在主题编号为20、30、40和50的总体结果同样,平均而言,模型A的得分略好于模型B;即使类比模型B的表现更好另一个观察结果是,性能几乎总是随着主题数量的增加而增加;注意到40和50个主题的结果比其他主题数量的增加更接近彼此。70.670.170.370.369.86968表7:主题建模的嵌入方法的分类结果。最佳结果以粗体显示。型号K = 20 K = 30 K = 40 K = 50LDA 0.539± 0.028 0.633± 0.022 0.695± 0.022 0.69± 0.022transE(a)0.57± 0.024 0.677± 0.013 0.705± 0.011 0.694± 0.017反式E(b)0.554± 0.017 0.670± 0.017 0.676± 0.022 0.714± 0.006反式H(a)0.567± 0.032 0.668± 0.0270.71±0.0190.714± 0.009反式H(b)0.555± 0.014 0.666± 0.035 0.694± 0.013 0.697± 0.024DistMult(a)0.59± 0.021 0.644± 0.015 0.706± 0.019 0.702± 0.026远距离(b)0.587± 0.017 0.667± 0.014 0.687± 0.014 0.694± 0.025PtransE RNN(a)0.567± 0.024 0.667± 0.024 0.701± 0.012 0.709± 0.010PtransE RNN(b)0.576± 0.016 0.659± 0.015 0.684± 0.024 0.701± 0.021TransR(a)0.574± 0.012 0.656± 0.018 0.687± 0.022 0.716± 0.011在他们的结果中。0.750七二五七百0.675零点六五零点六二五0.6000.5750.5500.5250.500K = 20TransE TransH DistMult PTransE RNN TransR HolE模拟0.750七二五0.7000.6750.6500.6250.6000.5750.5500.5250.500K = 30TransE TransH DistMult PTransE RNN TransR HolE模拟TransR(b)0.555± 0.035 0.662± 0.022 0.692± 0.005 0.695± 0.02620个专题30个专题孔E(a)0.597±0.0320.679± 0.032 0.697± 0.021 0.707± 0.004孔E(b)0.563± 0.022 0.668± 0.034 0.684± 0.026 0.713± 0.017类比(a)0.579± 0.014 0.641± 0.037 0.704± 0.022 0.715± 0.009类比(b)0.554± 0.0040.687±0.0170.676± 0.0220.719±0.0060.750七二五0.7000.6750.6500.6250.6000.7500.7250.7000.6750.6500.6250.6000.750七二五七百0.675零点六五0.6250.6000.750七二五0.7000.6750.6500.6250.6000.5750.5500.5250.500TransETransRTransH孔K = 40DistMult类比PTransERNN0.5750.5500.5250.500TransETransRTransH孔K = 50DistMult类比PTransE RNN0.5750.5500.5250.500TransETransRTransH孔K = 20DistMult类比PTransERNN0.5750.5500.5250.500TransETransRTransH孔K = 30DistMult类比PTransE RNN40个专题50个专题图8:通过不同嵌入方法获得的主题模型的文档分类准确率,20个专题30个专题合并模式B,以主题编号分隔0.7500.7250.7000.6750.6500.6250.6000.5750.5500.5250.500K = 40TransE TransH DistMult PTransE RNN TransR HolE模拟0.7500.7250.7000.6750.6500.6250.6000.5750.5500.5250.500K = 50TransE TransH DistMult PTransE RNN TransR HolE模拟模型B模型B的主要区别是在同一个文档中按主题生成实体嵌入,因此重要的40个专题50个专题图7:采用合并模型A,通过不同嵌入方法获得的主题建模的文档分类准确率,以主题编号模型A模型A的结果显示,在20个主题中,HolE和DistMult表现最好。他们的方法显然是更好地为少量的主题。类比也表现在它们附近在30个主题中,结果显示HolE再次得分最高。然而,这一次DistMult得分较低,而采用基于加法的翻译的TransE,TransH和TransR得分更高。在40个主题中,所有方法的性能收敛,所有方法的得分都比其他主题数更50个主题的结果也相对相似,其中TransR、Analogy和TransH得分最好。结果表明,洞是最好的性能与模型A的所有。从标准差来看,似乎模型A的方法具有相似的一致性-模型B的结果表明,在20个主题中,DistMult是与PTransE RNN一起表现最好的。在前30名中,类比法优于其他方法,因为所有其他方法的得分彼此相似在40个主题中,transH和transR以压倒性优势优于其他主题在50个主题中,Analogy似乎优于其他主题,TransE和HolE得分接近。结果表明,Analogy和DistMult是Model B的最佳表现者。同样重要的知识图谱扩展主题一致性结果主题一致性实验根据前面指定的参数运行。每个实验进行5次,平均值和标准偏差记录在表8中。0.5970.5900.5790.570零五六七0.5670.5740.6770.6790.6680.6670.6560.6440.6410.7050.7100.706零点七零一0.697零点七零四0.6870.7140.7090.7160.707零点七一五0.7020.6940.5870.5760.554零点五五五0.5550.563零点五0.6870.6700.666零六六七0.6590.6620.6680.6940.6870.6840.6920.6840.6760.6760.7140.713零点七一九0.6970.6940.7010.695表8:具有知识图扩展的主题一致性结果。最佳结果以粗体显示。K = 20 K = 30 K = 40 K = 50原稿K.G. (a)68.8 ± 3.5670.6±2.0869.6 ± 1.1371.4±1.82原稿K.G. (b)70.2 ± 1.7970.3 ± 0.5270 ± 1.5671 ± 1.41分机K.G. (a)70.5±2.4469.5 ± 1.0870.4 ± 1.4470.7 ± 2.56分机K.G. (b)68.1 ± 0.4870.1 ± 2.1371.5±3.0171.3 ± 0.7表8中的结果表明,扩展的知识图导致与原始知识图类似的结果。通过对表的整体检查,可以看出最佳性能分布在不同的模型和图中。具有扩展知识图的版本在20个顶级IC和40个主题中提供了更好的平均分数此外,总体趋势与上一节的主题一致性结果相似,因为30、40和50个主题的表现范围相同。77表9中的结果表明,知识图扩展在图中创建了更好的语义,这反过来又反映在分类结果中我们看到模型A和模型B都有模型A的扩展图在较小的主题数上表现得更好,而模型B的扩展图在较大的主题数上更0.7500.7000.6500.6000.550750.5007371K = 20 K = 30 K = 40 K = 50原始KG(a)原始KG(b)扩展KG(a)扩展KG(b)69676563K = 20K = 30原始KG(a)扩展KG(a)K = 40原始KG(b)扩展KG(b)K = 50图10:基于原始知识图和扩展知识图的主题建模在不同主题分类器上的文档分类精度增加主题数量和嵌入维度本节中的实验对应于前面关于进一步探索参数的小节。为此,增加主题数100和增加嵌入维数100与原始知识图上的transE和类比一起使用,并且进一步在扩展知识图上使用transE。图9:通过原始知识图和扩展知识图获得的不同主题编号的文档分类结果 这个实验表10和表11中报告了从每种组合的5次运行中获得的平均值和标准偏差。表10:100维嵌入的主题一致性结果。最佳结果以粗体显示。部分也运行了5次,因为之前的平均-表9中报告了年龄和标准偏差。表9:使用知识图扩展的文档分类结果。最佳结果以粗体显示。K = 20 K = 30 K = 40 K = 50原稿K.G. (a)0.57± 0.024 0.677± 0.0130.705±0.0110.694±0.017原稿K.G. (b)0.554± 0.017 0.670± 0.017 0.676± 0.022 0.714± 0.006分机K.G. (a)0.582±0.017 0.683±0.0320.692± 0.010 0.711± 0.027分机K.G. (b)0.5
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功