多图交替优化提升半监督学习性能:MG-GTAM方法

需积分: 9 1 下载量 185 浏览量 更新于2024-08-11 收藏 332KB PDF 举报
本文主要探讨了"基于多图的交替优化图直推方法"(MG-GTAM),针对单图半监督学习(GSSL)算法在处理单视图数据时的局限性。GSSL算法的性能往往受限于单个图的质量,而在涉及多图数据的场景下,许多现有的算法难以有效运用。为此,研究者提出了一种新颖的方法,旨在解决这些问题。 MG-GTAM首先通过采用不同的图构建参数,从单视图数据中生成多个图,这些图能够更好地捕捉数据之间的复杂关系。这种方法强调了图的多样性,每个图都可以从不同角度反映数据特征,从而提高学习的鲁棒性和准确性。 接着,MG-GTAM利用交替迭代策略融合多个图的信息。在每次迭代过程中,算法会选择置信度较高的未标记样本进行伪标记,这是一种增强学习过程的方式,使得模型能够在不断调整中逐步确定样本的类别。同时,该方法通过权重机制平衡各个图的重要性,确保信息的有效传递和整合,优化预测函数的一致性和平滑性。 最后,MG-GTAM将每个图的预测函数组合起来,形成一个全面的决策,从而准确地对所有未标记样本进行标记。在实验部分,研究者将MG-GTAM与经典算法如局部和全局一致性(LGC)、高斯随机场(GFH)和交替优化直推(GTAM)、组合图拉普拉斯(CGL)进行了对比,结果显示在COIL20目标物体数据集和NECAnimal数据集上,MG-GTAM的分类错误率显著降低,显示出其优越的性能。 MG-GTAM不仅解决了单图方法的局限性,而且通过多图的结合和交替优化策略,提升了半监督学习的精度和鲁棒性。这种方法对于处理大规模、多模态数据具有重要意义,是图半监督学习领域的一个重要进展。关键词包括图半监督学习、图直推、图构建、多图和交替优化,这表明了研究的核心技术领域和应用方向。