基于控制变量的图卷积网络随机训练算法研究

需积分: 5 0 下载量 170 浏览量 更新于2024-06-21 收藏 1.22MB PDF 举报
"Graph Convolutional Networks with Variance Reduction" 在本文中,我们将讨论图卷积神经网络(Graph Convolutional Networks,GCN)及其在 graph-structured 数据中的应用。GCN 是一种强大的深度神经网络,能够学习图结构数据的表示。然而,GCN 的计算复杂度随着层数的增加而指数增长,使得它在大规模图数据上的应用变得非常困难。 为了解决这个问题,研究人员提出了多种方法来减少 GCN 的计算复杂度,例如 subsampling 邻居节点。但是,这些方法并不能保证收敛性,且每个节点的感受野大小仍然在数百个节点的数量级别上。 在本文中,我们提出了基于控制变量的算法,以便在任意小的邻居节点数量下进行采样。同时,我们也证明了我们的算法能够收敛到 GCN 的局部最优解。实验结果表明我们的算法能够以类似于 exact 算法的收敛速度,而只需要使用每个节点的两个邻居节点。此外,我们的算法在大型 Reddit 数据集上的运行时间仅为之前邻居采样算法的七分之一。 1. 图卷积神经网络(GCN) 图卷积神经网络(GCN)是一种深度神经网络,能够学习图结构数据的表示。GCN 的核心思想是将图结构数据转换为欧几里德空间中的向量,接着使用卷积神经网络来学习图结构数据的表示。GCN 的优点是能够学习到图结构数据的深层次表示,从而能够提高图结构数据的分类、聚类和回归任务的性能。 2. GCN 的计算复杂度 GCN 的计算复杂度随着层数的增加而指数增长,因为每个节点的表示需要递归地从其邻居节点计算。这种计算复杂度的增长使得 GCN 在大规模图数据上的应用变得非常困难。 3. 基于控制变量的算法 为了解决 GCN 的计算复杂度问题,我们提出了基于控制变量的算法。该算法允许在任意小的邻居节点数量下进行采样,从而减少 GCN 的计算复杂度。同时,我们也证明了我们的算法能够收敛到 GCN 的局部最优解。 4. 实验结果 我们在大型 Reddit 数据集上进行了实验,结果表明我们的算法能够以类似于 exact 算法的收敛速度,而只需要使用每个节点的两个邻居节点。此外,我们的算法在大型 Reddit 数据集上的运行时间仅为之前邻居采样算法的七分之一。 本文提出了基于控制变量的算法来减少 GCN 的计算复杂度。我们的算法能够收敛到 GCN 的局部最优解,并且能够以类似于 exact 算法的收敛速度。实验结果表明我们的算法具有良好的收敛性和高效性,将有助于 GCN 在大规模图数据上的应用。