对抗性正则化自编码器:深层网络表示的新方法

需积分: 11 2 下载量 8 浏览量 更新于2024-07-18 收藏 1.1MB PDF 举报
本文主要探讨的是"Learning Deep Network Representations with Adversarially",即利用对抗性正则化自编码器进行深层网络表示的学习方法。该论文深入研究了神经网络表示学习的问题,通常被称为网络嵌入,其核心目标是在顶点表示中捕捉网络的结构语义,以便在各种任务中,如链接预测、社区检测、社会网络异常检测、生物网络分析以及语言网络理解中发挥效用。 传统的网络嵌入方法倾向于使用浅层或深层模型,通过学习低维嵌入来实现局部重构性和全局重构性。这些方法试图从输入网络中采样的序列中提取特征,但受制于采样数据的固有稀疏性,使得结果难以推广。为解决这个问题,作者提出了一种创新的方法——反向正则化自编码器(NETRA)。NETRA设计的核心思想是结合局部和全局重构约束,通过学习概率密度函数,生成在样本序列上表示顶点的泛函数,从而更好地捕捉网络的结构特性。 NETRA的优势在于它能够有效地处理网络的复杂结构和采样稀疏性。通过对网络结构的深度学习,NETRA不仅能保持网络的结构性质,还能反映出网络中的局部邻域信息和全局结构。论文通过实证研究展示了NETRA在各类任务中的高效性能,如网络重构,即从简化的表示恢复出原始网络;链路预测,即根据现有连接预测未来的连接;以及多标签分类,即识别节点可能拥有的多个标签。 关键词:网络嵌入、自动编码器、通用对抗网络。本文为深度网络表示学习提供了一个新颖且有效的解决方案,强调了对抗性正则化在提升网络表示学习性能和泛化能力方面的关键作用。