提升图卷积网络性能:批量虚拟对抗训练方法

需积分: 0 0 下载量 2 浏览量 更新于2024-08-05 收藏 363KB PDF 举报
"2019年清华大学的研究论文《Batch Virtual Adversarial Training for Graph Convolutional Networks》(BatchVirtualAdversarialTrainingforGraphConvolutionalNetworks)由Zhijie Deng, Yinpeng Dong, 和 Jun Zhu三位作者共同完成,他们隶属于清华大学计算机科学与技术系、智能科技与系统国家重点实验室以及生物启发计算研究中心。这篇论文针对图卷积网络(GCNs)提出了一种创新的正则化方法,旨在解决GCNs在处理图结构数据时忽视模型输出分布平滑性的局限性。 论文的核心是批量虚拟对抗训练(Batch Virtual Adversarial Training, BVAT),这是一种针对GCNs设计的新颖策略。它认识到,对于图数据,模型的输出应当对输入附近的局部扰动具有一定的稳健性。为此,研究者提出了两种算法:基于采样的BVAT和优化驱动的BVAT。前者通过寻找远离彼此的节点的虚拟对抗扰动来增强模型的稳定性;后者则通过优化过程为所有节点生成虚拟对抗扰动,从而提升模型的全局性能。 实验部分在三个著名的文献引用网络数据集(Cora, Citeseer, 和 Pubmed)以及一个知识图谱数据集Nell上进行了广泛的验证。结果表明,这种方法有效提高了模型的鲁棒性和性能,尤其是在半监督学习任务中,它显著超越了当时的最先进的方法,确立了在图数据处理领域的前沿地位。因此,Batch Virtual Adversarial Training为GCNs的稳定性和泛化能力提供了重要的改进途径,对于理解复杂网络结构的学习机制以及实际应用中的安全性和可靠性具有重要意义。"