没有合适的资源?快使用搜索试试~ 我知道了~
基于Keras的图神经网络处理库
软件X 18(2022)101061原始软件出版物GNNkeras:一个基于Keras的库,用于图神经网络和同构和异构图处理Niccollege Pancinoa,b,Punta,Pietro Bonginia,b,Franco Scarsellia,Monica Bianchiniaa锡耶纳大学信息工程与数学系,Via Roma 56,53100,Siena(SI),Italyb佛罗伦萨大学信息工程系,Via S. Marta 3,50139,Florence(FI),意大利ar t i cl e i nf o文章历史记录:2022年1月18日收到收到修订版,2022年2月27日接受,2022年保留字:图机器学习TensorFlowKeras图神经网络a b st ra ct在科学和工程的几个领域,数据可以自然地以图形形式表示,其中节点表示实体,边表示它们之间的关系图 神经网络 (GNN)是 用于图 处理的 一类众所 周知的 机器学习 模型。 在本文 中,我 们提出 了GNNkeras,一个基于Keras的库,它允许实现GNN的一个大子类。GNNkeras是一个灵活的工具:实现的模型可用于分类/聚类节点,边缘或整个图。此外,GNNkeras可以应用于同构和异构图,利用归纳和混合©2022作者(S)。由爱思唯尔公司出版这是CC BY-NC-ND下的开放获取文章许可证(http://creativecommons.org/licenses/by-nc-nd/4.0/)。代码元数据当前代码版本v2.0用于此代码版本的代码/存储库的永久链接https://github.com/ElsevierSoftwareX/SOFTX-D-22-00019Code Ocean compute capsule法律代码许可证BSD 3条款许可证使用git的代码版本控制系统使用Python 3的软件代码语言、工具和服务编译要求、操作环境依赖性TensorFlow 2.x、NumPy、SciPy、Typing如果可用,链接到开发人员文档/手册github.com/NickDrake117/GNNkeras/tree/GNNkeras_SoftwareX支持电子邮件问题niccolo. unifi.it软件元数据当前软件版本2.0此版本可执行文件的永久链接github.com/NickDrake117/GNNkeras/tree/GNNkeras_SoftwareX法律软件许可证BSD 3条款许可证计算平台/操作系统Linux,OS X,Microsoft Windows安装要求依赖TensorFlow 2.x、NumPy、SciPy、Typing如果可用,请链接到用户手册-如果正式出版,请在参考列表中引用该出版物github.com/NickDrake117/GNNkeras/tree/GNNkeras_SoftwareX支持电子邮件问题niccolo. unifi.it1. 动机和意义通讯作者:锡耶纳大学信息工程与数学系,Via Roma 56,53100,Siena(SI),Italy。电子邮件地址:niccolo. unifi.it(NiccolloPancino).https://doi.org/10.1016/j.softx.2022.101061图是由节点和边的集合组成的数据结构,可用于表示对象或模式及其关系。节点和边可以与值的向量相关联,描述模式的属性2352-7110/©2022作者。由爱思唯尔公司出版。这是一篇开放获取的文章,使用CC BY-NC-ND许可证(http://creativecommons.org/licenses/by-nc-nd/4.0/)。可在ScienceDirect上获得目录列表SoftwareX期刊主页:www.elsevier.com/locate/softxNiccollem Pancino,Pietro Bongini,Franco Scarselli等软件X 18(2022)1010612关系,分别。如今,图在许多现代应用中扮演着重要的例如,在生物和化学过程中,节点表示实体,如原子、蛋白质或基因,而边表示化学键、物理接触或代谢相互作用。实际上,图构成了许多生物信息学应用中的自然数据域,例如,在蛋白质-蛋白质相互作用(PPI)[ 1 - 3 ]中识别界面氨基酸更一般地,可以观察到,图形表示允许通过连接对应的图形来自然地合并来自不同应用的信息。事实上,在极端情况下,与公司/组织所拥有的应用程序集相关的整个信息可以收集在单个图中。常见的机器学习(ML)技术只能应用于矢量数据,但在其应用中所起的作用是先进的在现代应用中的关系促使研究人员为图结构数据域设计新的方法。图神经网络(GNN)是用于基于神经网络的图结构数据处理的一类众所周知的机器学习模型。第一个GNN模型已经在[5]中提出。最近,已经引入了大量的方法,包括图卷积网络[6],GraphSAGE [7],图注意力网络[8]和图网络[9]。此外,GNN已被应用于大量任务,例如药物再利用[10],物理模拟[11]和推荐系统[12]。见[13在这种情况下,对于研究人员和软件开发人员来说,拥有足够灵活的工具来支持使用当前GNN模型开发应用程序并可能有利于研究新版本的GNN是非常重要的。虽然目前有许多深度学习框架可用,但Keras和TensorFlow 2在行业和研究社区中的采用率比任何其他深度学习解决方案都高。Keras提供了优化的模块,它是可扩展的,并且它对Nvidia GPU和TPU上的混合精度训练提供了原生支持,以加快学习过程。出于这个原因,我们开发了一个新的Keras 库 , 它 同 意 实 现 GNN 的 一 个 重 要 子 类 更 确 切 地 说 ,GNNkeras提供了一个从[5]中提出的原始模型派生出来的GNN模型:这个模型可以很容易地扩展到所有的递归GNN [15],这是GNN的一个大子类。分层图神经网络(LGNN)也可用[16]:LGNN可以被认为是GNN的更深版本,并且能够克服所谓的长期依赖性问题,即网络无法正确处理复杂的图形,这是由于远程节点之间的依赖关系。GNNkeras用户当然可以轻松访问大量的ML功能。Keras本身就保证了这一点,它构建在TensorFlow 2之上,TensorFlow 2是ML最常用和最完整的软件库之一。还请注意,据我们所知,GNNkeras是第一个专门为递归GNN设计的工具。1最后,GNNkeras是灵活的,允许管理各种活动,图形域和学习方法。事实上,GNNkeras可以处理目标是对图中由边表示的关系进行分类的任务,或者1 更确切地说,在提交本文时,Keras的官方GNN库的alpha版本可以在https://github上获得。com/tensorflow/gnn,然而,它似乎主要是为卷积而不是为递归GNN设计的,就像我们的软件提供的那样。甚至是由整个图表示的对象。此外,同构和异构的图形结构的数据都可以处理。异构图,其中节点/边表示不同类型的对象,并且可以具有不同的特征,在现代应用中特别重要,其中信息通常从不同的来源收集。最终,GNNkeras允许使用两种类型的学习范式:经典归纳学习方案和混合2. 软件描述GNNkeras软件基于TensorFlow 2.x和Keras(TensorFlow后端),这是全球最常用的深度学习框架之一[19]。可以面对三种类型的任务,称为以节点为中心,以边缘为中心和以图形为中心。以节点为中心的问题涉及图的所有节点或它们的子集具有期望目标的情况:直观地,输出必须与每个目标节点相对应地产生,其可以用于分类、回归或聚类目的。例如,当分子被表示为图形时,在大分子中定位特定化合物是以节点为中心的任务。另一方面,以边缘为中心的问题涉及目标与边缘相关联的任务:GNN必须分类,聚类,甚至预测模式之间预测原子或分子之间的化学键的性质最后,一个以图为中心的任务涉及的问题,其中一个唯一的目标是关联到整个图,目标是预测一个属性或聚类图所表示的复杂对象预测特定化合物的致突变性就是这类任务的一个例子基于信息扩散机制,GNN可以处理同构和异构的图结构数据。具体地,GNN创建编码网络,该编码网络是一种通过多层感知器(MLP)单元复制输入图的拓扑的架构,在每个节点处实现状态转换函数fw,并且(在目标节点或边缘上)实现输出函数gw。该网络通过在输入图的每个节点上复制MLP单元,并通过循环交换邻域信息,直到达到稳定的平衡点或最大迭代次数,分别在时间和空间上展开自身。在这个被称为展开网络的前馈网络中,每一层都对应于一个时刻,并包含编码网络所有元素的副本,各个层之间的连接也依赖于此在异构图形结构数据域中,学习过程与同构情况下的学习过程的不同之处仅在于用作构建块的MLP的数量,因为不同的MLP被利用在不同类型的节点的状态上。实际上,在异质设置中,对于每个节点或边缘类型存在不同的状态更新MLP,其将学习状态转换函数的不同版本。在异构图上的学习过程的一个例子被描绘在图中。1.一、在最初的框架中,GNN是基于监督学习环境进行归纳训练的。然而,GNN和LGNN也可以利用转导学习[17,18],谢谢2 在本文中,我们用术语目标来标识网络在某个实体(例如节点)上的预期输出。因此,在以节点为中心的分类问题中,目标将代表节点所属的类。Niccollem Pancino,Pietro Bongini,Franco Scarselli等软件X 18(2022)1010613+=我||联系我们∈ ≡∈联系我们={∈}={∈:∈}为||为||O=(2| |J=J∈∈∈∈∈∈∈nn我我我i定义如下:我Jv|ne(vi)|J我我n我∈∈Fig. 1. 在具有两种节点类型(绿色和红色)和一种边类型的异构图上进行复合GNN学习。从左至右:一般无向输入图;编码网络,其中绿色和红色框表示两种类型的状态转换函数fw,而蓝色框表示输出函数gw;展开网络,以前馈网络的形式,T1层。相同的方案适用于具有唯一MLP实现的非复合GNN。每个节点上的f w。(有关本图例中颜色的解释,请参阅本文的网络版本信息在图表中流动和传播的自然方式。在转换框架中,训练集节点及其目标与测试模式结合使用。特别地,训练节点– 被称为转导节点参数输出函数,其描述在步骤t T处如何产生输出,并且可以是邻域聚合函数,其定义来自v(vi)– 是聚合的。 然后,国家t 对于t ≤T 和输出oT =O 在节点Vst=f(st−1,x,n(st−1,x,e))Iw我iinv(vi)inv(vi)在e(vi)(一)2.1. 定义形式上,一般图是一对G=(V,E),其中V=oi=gw(sT,xi)注意,节点vi的状态st基于其特征,基于其我t−1v0,v1,. . .,vn−1表示顶点或节点的集合,并且E(vi,vj)vi,vjV表示其弧的集合。特别是,viV表示节点,并且e ij(vi,vj)E表示连接vi到vj并且从vi指向vj的弧。更具体地说,当图是无向的,两个节点之间的连接称为边,并且在我们的实现中,它对应于指向相反方向的两个弧(vi,vj)和(vj,vi)。一个图的阶数和图的大小被定义为它的节点数nV以及它的弧数mE,分别。集合在v(vi)vj中V额吉E是即将到来的社区 vi的,即其相邻节点,通过指向v i的弧连接到vi 到vi,而在e(vi)e ji中E是进入vi的弧的集合,也就是说,来自它的邻域并指向vi。对于给定节点vi,v(vi)中的传入邻域的大小对应于v中的其邻居的数量。此外,一般的有限图可以用它的邻接矩阵表示在前一时间步骤s i的状态 以及聚合消息来自它的邻居。当量(1)可以以紧凑的形式重写为:St=Fw(St−1,X,<$(St−1,X,E))不W其中F w和G w是全局转移函数和全局输出函数,即f w的V个实例的堆叠版本 和gw。fw和gw都可以由MLP单元实现,在下文中称为nets和neto。函数f可以是来自v(vi)的消息的任何聚合函数。特别地,在软件中考虑了三个可能的函数:传入消息的总和、传入消息的总和、传入邻域在v(vi)中的大小的平均值、以及图的大小的归一化、归一化范数,定义为:A∈Rn×n= {aij∈ {0, 1}: 0≤i≤n− 1, 0≤j≤n− 1},其sum(vi)=∑(st−1,xj,eji)元素指示两个节点在graph. GNNkeras利用了这个矩阵的修改版本,基于一些标准:特别 是,如果存在一个arc(v,v)∈ E,1ag(vi)=j∈inv(vi)∑(st−1,xj,eji)连接两个通用节点vi,vj ∈V,则a ij ∈Rn =0,j∈inv(vi)否则为ij0。节点和弧可以分别与矢量相关联1∑t−1n(vi)= |V|(s ,xj,eji)xiRln和eijRle描述其特征的属性。通过将所有这些向量叠加,得到节点特征矩阵XRn×ln和弧特征矩阵E得 到 Rm×(2+le):一般行xiX表示第i个节点特征向量,而通用行eiE描述了第i条弧,连接索引在X构成ei的前两个分量,即e0和e1,因此j∈inv(vi)在监督和半监督应用中,通用图也与目标矩阵T相关联,目标矩阵T通过堆叠所有可用的目标值而获得,并且其维度是可变的,因为它可以与整个图、节点或弧的整个集合或它们的子集从节点ve 0指向ve 1。我我在异构图域中,V和E都可以表示-一个表示, 节点eiv∈V可以由它的发送对象和不同类型或性质的关系提供,有时状态siRds,根据vi中包含的信息获得以及它在v(vi)中的传入邻域通过堆叠所有也由可变长度的特征向量来描述设K是与节点特征集相关联的节点类型的有限集合状态,节点状态矩阵S∈Rn×ds 是收集的。尺寸LK = {lk :k ∈K},则vk ∈V 表示泛型在图形处理期间,迭代地更新所有节点的状态,直到在步骤T处达到收敛或最大迭代次数。在此过程中,每个节点通过交换消息与其邻居进行交互设fw是用于状态计算的参数状态转移函数,gw是图的节点属于类型k K,并由特征向量xkRlk描述。尽管为了完整性起见,表示不同类型关系的弧可以描述为:不同长度的特征向量,在绝大多数异构图数据集中,它们与任何属性都不相关:(三Niccollem Pancino,Pietro Bongini,Franco Scarselli等软件X 18(2022)1010614n∈=v={v吉夫我我∈CA G我IJIJikv我v我v我得双曲余切值.vJvv|in k(vi)|JJ(四我ik={∈: ∈∈}||纪:==∈}=-图二. 软件架构。在主GNN文件夹中,提供了图形数据表示类;Models子文件夹提供了MLP、GNN、LGNN、CGNN(Composite GNN)和CLGNN(Composite LayeredGNN)模型实现,而Sequencers子文件夹提供了用于为模型提供GraphObject/CompositeGraphObject数据的图形排序器。请注意,前面提到的MLP模型是一个返回KerasSequential模型的函数,这意味着每个Sequential模型都可以用于实现nets和neto。因此,在这种情况下,有可能“同质化”不同类型的关系,从而在节点之间产生独特类型的弧,该弧由代表其所表示的关系的固定大小的特征向量来描述。因此,在所提出的软件中,异构或复合图由其复合节点特征矩阵X来描述Rn×Ln,其中L nmax(LK)-作为零填充被添加到较短的特征向量中-并且通过其弧特征矩阵ERm×(2+le)。传入邻域集可以由k()中的不同类型的节点组成(v)单位k(v)在h(v)中 ,Kh、k, hKVin k(vi)VKV额吉E,kK 在k(vi)中有大小。除了方程中定义的函数外,(3),在这个域中,考虑另一个聚合函数<$ca v g,定义为邻居的数量和类型的平均值之和:<$ca(v)=∑1∑(st-1,xk,e)v图的所有属性的基于张量的描述将被GNN模型正确和快速地处理。 在异构环境中,另一个由Compos定义的类-iteGraphObject/CompositeGraphTensor在compos-ite_graph_class.py中提供。GraphObject和GraphTensor虽然它们表示相同的对象,但它们在用于其属性的数据类型:GraphObject由NumPy数组和SciPy稀疏矩阵描述,而GraphTensor– 顾名思义-通过TensorFlow常量和稀疏张量。2.4. 图形数据类型因此,GraphObject/GraphTensor的实例是通用图G=(V, E)的紧凑表示,k∈Kvj∈ink(vi)矩阵E和目标矩阵T。因为并非所有vi∈ V或eij∈E为此,定义复合邻接矩阵集是非常有用的,CompositeGNN使用该矩阵集来获取传入的必须与一个目标值,一个布尔输出相关联掩码mo∈B包含在GraphObject中,以定义是否或节点的消息,AK = {Ak∈Rn×n},其中Ak= {ak ∈R:不是目标值ti∈T与特定节点或弧相关联k∈K,0≤i≤n− 1, 0≤j≤n− 1}是复合邻接k型矩阵特别地,如果存在弧(vk,vj)∈E,此外,当数据集仅由一个图组成包括布尔集合掩码ms∈B,以便指定子集连接两个通用节点v,k,v∈V,则ak我Rn =0,Ij否则k= 0。2.2. 软件构架ij∈属于特定数据集或数据批次的节点或弧。注意,为了正确处理图形,ms和mo必须匹配,而mo必须包含与T中的值数量一样多的真值。在异构域中,CompositeGraphObject或CompositeGraphTensor的实例GNNkeras已被实现为一个模块,使用包括布尔类型掩码mK∈Bn×K={mKB},以Python 3编程语言,它基于NumPy,SciPy,指定每个节点的类型,例如mKik=1当且仅当TensorFlow库该软件包包括用于基于节点、基于边和基于图的应用程序的GNN模型NumPy和SciPy为密集和稀疏数据提供了高效的数值例程,而TensorFlow和Keras提供了一种简单而智能的方法来定义和管理模型,并简化学习和评估过程。图2显示了包目录组织的图形表示。2.3. 软件功能该软件依赖于一个自定义的图形表示,它在graph_class.py中实现,并定义为一个GraphOb-object实例。为了加快学习过程,在输入GNN模型之前,GraphObject被转换为另一种自定义图形表示,称为GraphTensor,其中包含节点vivk,否则m K0.在初始化阶段,GraphObject以坐标格式自动定义三个SciPy稀疏矩阵:邻接矩阵A和一个GraphObject和一个CompositeGraphObject也可以保存在一个NumPy未压缩/压缩的npz文件– 其包括用于其完整表示的所有必要矩阵。给定一个图形数据集,以图形数据元素列表的形式,这些类还提供了一种将整个数据集保存在单个文件夹中的智能方法,可以在需要时从该文件夹加载数据集。至少由节点特征矩阵X初始化,弧特征Niccollem Pancino,Pietro Bongini,Franco Scarselli等软件X 18(2022)1010615G图三. 复合GNN模型GraphSequencer从GraphObjects生成GraphTensor批次,这些批次作为输入呈现给模型。所有数量通过多个操作(矩阵乘法、布尔掩码过滤和连接过程)以形成到网络S和网络O的输入。为 了 被 GNN 模 型 正 确 地 处 理 , 需 要 将 Gra- phObjects 和CompositeGraphObjects馈送到一个特殊的数据处理程序,图形序列器,在下面描述。2.5. 图形排序器GraphSequencer是一个数据管理器,用于拟合数据序列(如图形数据集),该数据序列由单个GraphObject或GraphObject元素列表来生成批量GraphTensors,其属性作为给定GNNkeras模型的输入。总共提供了六个GraphSequencer,用于基于多图和单图的数据集,在同构和异构图域中,以及用于归纳和转换学习方法。值得注意的是,transductive是Sequencer的一个特殊类,它在生成异构图形数据的同时提供同构的GraphObjects。事实上,对于每个epoch和batch,它将图形训练目标节点分成两个子集,即归纳节点和转换节点。在转导组中,节点被集成在其特征向量中。因此,对于该节点,在学习过程中不使用监督。相反,在(监督)归纳集合上不执行任何操作,该归纳集合用于学习过程中以适应模型因此,新的图不能由同构的GraphTensor表示,因为存在两种类型的节点– 由不同长度的特征向量描述2.6. GNN模型由于GNNkeras是一个基于Keras的软件,其中GNN类继承自Keras.Model 类 , 因 此 它 具 有 TensorFlow 2.x 和 Keras(TensorFlow后端)提供为了在现代CPU和GPU上并行化软件执行图图3示出了通过复合GNN模型的异构图的处理方案。3. 说明性实例下面给出了同构图域问题中的软件应用示例。 设是一个由N个图组成的数据集,N> 100,由三个等长的X,E,T矩阵列表-节点,弧,目标列表-描述,使得第i个元素引用第i个图 。 让 nets 和 neto 由 MLP Keras 描 述 。 序 列 模 型 。net_state和net_output指的是两个单一的模型,nets和neto,单一GNN模型在LGNN情况下,nets_state和nets_output指的是具有等于LGNN中的层数的长度的两个列表。该模型并包含LGNN模型的每个GNN层的nets和neto在定义GNN和LGNN模型之前,让我们设置一些参数:#GNN状态维数= 3最大迭代= 5个状态阈值=0. 01#LGNNg et_state=Falseget_output = Truetraining_mode =#学习程序loss_function = t f . Keras 损失categorical_crossentropyoptimizer = t f.优化器Adam(learning_rate =0.001)epoch = 10#图形聚集方式=“平均”#传入消息策略addressed_problem=’ =’节点、弧和目标的每个元素都是构建单个GraphObject实 例 所 必 需 的 。 一 旦 数据 集 建 立 , 它 将 被 馈 送 到 两个MultiGraphSequencer-因为数据集由多个测试集,分别。在下文中,只有最后100个图被馈送到测试Sequencer,而其他图用于馈送训练Sequencer。#数据集graphs = [ GraphObject(nodes=n,arcs =e,targ ets =t,focus=focus,aggregation_mode=aggregation_mode)]为 e、n,不在zip(arcs,节点,targs)]Niccollem Pancino,Pietro Bongini,Franco Scarselli等软件X 18(2022)1010616#测序仪为没下雨和测试集gTr_Sequencer=MultiGraphSequencer(graphs [:-100],focus,aggregation_mode)gTe_Sequencer=MultiGraphSequencer(图[ −100:],focus,aggregation_mode)由于GNN和LGNN模型属于Keras.Model类,因此需要对其进行编译:对于这两个模型,应设置参数run_early =True,因为此软件版本中不提供LGNN模型可以用一个特殊的参数训练模式来编译,这影响了它的学习行为。特别地,它可以被设置为串行、残差或并行。在串行模式下,每个GNN层被单独训练,一个接一个,如原始论文[16]中所述;在并行模式下,通过考虑目标和每个GNN层的输出之间的损失之和的损失,并在所有GNN层中反向传播误差,同时训练GNN层;最后,残差模式允许通过考虑目标和所有GNN的输出之和之间的损失,并在所有GNN层中反向传播误差,同时训练所有的GNN层。#GNN模型gnn = GNNgraphBased(net_state =net_state,net_output=net_output,state_vect_dim=state_dimension,max_iteration=max_iteration,state_threshold = state_threshold)gnn。 编译(优化器=优化器 、loss =损失函数 、 run_early =True)#LGNN模型gnnLayers = [ GNNgraphBased(net_state =s,net_output=o,state_vect_dim=state_dimension,max_iteration=max_iteration,增加,导致大量新模型的开发[15],一些理论研究[20,21],以及大量的实际应用[13,22]。GNNkeras就是在这种背景下设计的,目的是简化GNN的使用。基于图的网络可以分为两大类,递归和卷积[15]。GNNkeras专注于前一类GNN,我们的团队在这方面积累了长期的专业知识。 据我们所知, 该软件是TensorFlow 2.x专为递归GNN设计的第一个解决方案。这两种模型之间的主要区别在于它们直接在图上操作的方式。在卷积的情况下,通过卷积和池化技术来处理图,其通过固定数量的堆叠层来执行,在各个层中使用独立参数。相反,在递归情况下,MLP单元共享架构和参数,并且状态计算可以执行固定次数或直到收敛到一个稳定的状态GNNkeras的特征很多,可以概括为:在以下几个方面受到了重视GNNkeras允许在几行代码中轻松开发和部署GNN模型,并且具有高度的通用性。将GNN表示为GNNkeras模型与以前的常见解决方案相比具有相当大的优势,这些解决方案是使用TensorFlow从头开始手动编写的所有三种不同类型的深度学习问题都在图上实现:基于节点的,基于边的,基于图的。GNN可以分层,实现LGNN版本以解决更复杂的问题。• GNN和LGNN可以应用于异构图。为状态阈值=状态阈值 )的方式s,O在zip(nets_state,nets_output)]• 深度学习任务的所有三个超级类别都可以lgnn = LGNN(gnns=gnnLayers, g et_state = get_state、 get_output=get_output)lgnn . compile(optimizer=optimizer,l oss = loss_function,run_early =True、training_mode=training_mode)模型被定义和编译:学习和评估过程可以发生。仅出于说明目的,在训练过程中不提供验证数据或TensorFlow回调。###学习程序gnn。 f i t(gTr_Sequencer,epochs=epochs)lgnn . f i t(gTr_Sequencer,epochs=epochs)###评价程序gnn .evaluate(gTe_Sequencer)lgnn .evaluate(gTe_Sequencer)4. 影响图数据现在无处不在,允许在许多不同的研究领域中表示数据实体之间的关系信息。此外,图形的重要性正在增加,因为它们允许直接合并来自不同来源的信息,这在现代应用中是非常自然的一方面,图是一种强大的数据表示形式,特别是对于关系信息,机器学习技术在这一领域的应用变得越来越重要。另一方面,标准的机器学习方法是基于平面向量数据,因此它们在图域上的应用是困难的。这意味着图形数据必须进行预处理,丢失相关信息,特别是在关系方面。这一限制刺激了GNN的提出和成功,GNN是一类可以直接处理图形数据的机器学习模型。在过去的几年里,研究人员在该领域的兴趣已经知道最近和稳定使用GNN处理:回归,分类和生成。可以采用归纳式和混合式的GNNkeras的预期影响主要与其帮助用户加快新研究提案和先进软件开发的能力有关。我们认为,由于上述特性,GNNkeras是一个灵活而合适的工具,可以将ML用于图形数据。ML研究人员可以使用该库来测试新模型和设计新应用程序。它也可以被公司和组织的软件开发人员用于设计关系数据应用程序最后,值得注意的是,对ML for graphs的特殊兴趣是衡量该行业社区规模和增长的一个指标,GNNkeras可以对此有所帮助。5. 结论本文提出了一个新的通用GNN框架,它为归纳学习和转换学习提供了多个基于Keras的GNN模型,用于同构和异构图的处理。它的开发是为了帮助研究和开发ML领域的软件应用程序,为那些已经熟悉Keras模型的人以及那些想要进入人工智能图形领域的人竞合利益作者声明,他们没有已知的竞争性财务利益或个人关系,可能会影响本文报告的工作····Niccollem Pancino,Pietro Bongini,Franco Scarselli等软件X 18(2022)1010617引用[1] Grindley Helen M,Artymiuk Peter J,Rice David W,Willett Peter.用最大公共子图同构算法识别蛋白质三级结构相似性。分子生物学 杂 志 1993;229(3):707-21.[2] 加德纳埃莉诺J,阿蒂缪克彼得J,威利特彼得。用于匹配三维分子结构的计算 机 检 测 算 法 。J Mol Graph Model 1997;15 ( 4 ) : 245-53.http://dx.doi.org/10.1016/S1093-3263(97)00089-2.[3] Pancino Niccollium,Rossi Alberto,Ciano Giorgio,Giacomini Giorgia,Bonechi Simone , Andreini Paolo , Scarselli Franco , Bianchini Monica ,Bongini Pietro.用于蛋白质-蛋白质界面预测的图神经网络。 In:Proceedings的的月28 欧洲关于人工神经网络,计算智能和机器学习的研讨会,ESANN 2020,比利时布鲁日,2020年10月2日127比32[4] Zitnik Marinka,Agrawal Monica,Leskovec Jure. 使用图卷积网络对多谐副作用进行建模。Bioinformatics2018;34(13):i457-66.[5] 斯卡塞利·佛朗哥,哥里·马可,泰里·阿忠,哈根布赫纳·马库斯,蒙法迪尼·加布里埃莱。图神经网络模型。IEEE Trans Neural Netw2009;20:61-80.[6] Kipf Thomas N , Welling Max. Semi–supervised classification with graph2016年,arXiv预印本arXiv:1609.02907。[7] Hamilton William L,Ying Rex,Leskovec Jure.大图上的归纳表示学习。在:第31届神经信息处理系统国际1025-35[8] Veličković Petar , CucurullGuillem , Casanova Arantxa , RomeroAdriana,LianjiPietro,Bengio Yoevo.图注意力网络。2017年,arXiv预印本arXiv:1710.10903。[9] Battaglia Peter W,Hamrick Jessica B,Bapst Victor,Sanchez-Gonzalez Al-varo , Zambaldi Vinicius , Malinowski Mateusz , Tacchetti Andrea , Ra-poso David , Santoro Adam , Faulkner Ryan , Gulcehre Caglar , SongFrancis,Ballard Andrew,Gilmer Justin,Dahl George,Vaswani Ashish,Allen Kelsey , Nash Charles , Langston Victoria , Dyer Chris , HeessNicolas , Wierstra Daan , Kohli Pushmeet , Botvinick Matt , VinyalsOriol,李云佳,Pascanu Razvan.关系归纳偏差、深度学习和图网络。2018年,arXiv预印本arXiv:1806.01261。[10]谢康林、王茵茵、陈璐瑶、赵忠明、Savitz Sean、姜晓倩、唐静、金业进。使 用 图 神 经 网 络 和 协 调 多 个 证 据 对 covid-19 进 行 药 物 再 利 用 。 SciRep2021;11:23179.[11]Sanchez-Gonzalez Alvaro , Godwin Jonathan , Pfaff Tobias , Ying Rex ,Leskovec Jure,Battaglia Peter.学习用图形网络模拟复杂的物理学。载于:Daumé Hal , Singh Aarti , 编 辑 。 第 37 届 机 器 学 习 国 际 会 议 论 文 集 。Proceedings of MachineLearning Research,119,PMLR; 2020,p. 8459-68[12]英雷克斯,何瑞宁,陈开封市,埃克松巴猜乒乓,哈米尔-WilliamL,Leskovec Jure.用于网络规模推荐系统的图卷积神经网络。在:第24届ACM SIGKDD知识发现数据挖掘国际会议论文集; 2018年,pp.974-83.[13]周杰、崔干渠、胡生定、张正艳、杨成、刘志远、王立峰、李长城、孙茂松。图神经网络:方法与应用综述。AI Open2020;1:57-81.[14]巴 丘 · 达 维 德 , 埃 丽 卡 · 费 德 里 科 , 米 凯 利 · 阿 莱 西 奥 , 波 达 马 可 。Agentleintroduction to deep learning for graphs. 神经网络2020;129:203-21.[15]吴宗汉,潘世瑞,陈凤文,龙国栋,张成琪,于菲利普S。图神经网络综述。IEEETransNeuralNetwLearnSyst2021;32(1):4-24.http://dx.doi.org/10.1109/TNNLS的网站。2020.2978386。[16]班迪内利·尼科洛,比安奇尼·莫妮卡,斯卡塞利·佛朗哥。 使用分层图神经网络学习长期依赖关系。2010年国际神经网络联合会议(IJCNN)。 IEEE; 2010,p. 1-8号。[17]罗西·阿尔贝托,蒂耶齐·马特奥,迪米特里·乔凡娜·玛丽亚,比安奇尼·莫妮卡,马吉尼·马尔科,斯卡塞利·佛朗哥。图神经网络的归纳-传导学习。在:IAPR研讨会人工神经网络在模式识别。Springer; 2018,p.201-12[18] Ciano Giorgio,Rossi Alberto,Bianchini Monica,Scarselli Franco.基于图 神 经 网 络 的 归 纳 - 传 导 学 习 。 IEEE Trans Pattern Anal Mach Intell2022;44(2):758-69. http://dx.doi.org/10.1109/TPAMI.2021.3054304.[19]Abadi Martín , Agarwal Ashish , Barham Paul , Brevdo Eugene , ChenZhifeng,Citro Craig,
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功