联合多样性正则化与图正则化的多核k均值聚类

0 下载量 62 浏览量 更新于2024-08-26 收藏 1.6MB PDF 举报
"这篇研究论文探讨了通过潜在变量对多个核k均值聚类进行联合分集正则化和图正则化的理论与方法。作者包括Teng Lin, Yong Dou和Xinwang Liu,他们来自中国国防科技大学的并行与分布式处理国家实验室。该论文在2016年经过多次修改后最终于8月16日被接受,并由Feiping Nie审阅,于8月28日在线发布。关键词包括聚类、核k均值、潜在变量、多样性正则化和图正则化。" 文章介绍了一个名为Multiple Kernel K-means via Latent Variables (MKKLV)的算法,它是对传统Kernel K-means (KKM)聚类算法的扩展。MKKM聚类算法在许多机器学习和计算机视觉任务中广泛应用,通过结合一组预定义的核函数来提升聚类性能。在MKKLV算法中,基础核函数可以根据每个样本自适应地调整,以增强核特定性和样本特定性的灵活性。 论文的核心贡献在于引入了联合分集正则化和图正则化策略。联合分集正则化旨在通过考虑不同核之间的差异性和互补性,使聚类结果更加多样化,从而提高聚类的鲁棒性和准确性。图正则化则是利用样本间的相似性结构形成一个图,通过优化图上的结构信息来指导聚类过程,使得具有相似特征的样本更可能被分配到同一类别。 在MKKLV算法中,潜在变量的概念被用来捕捉样本的隐藏特性,这些特性可能对聚类有重要影响但并不直接观测得到。通过优化潜在变量,算法可以更好地学习和理解数据的内在结构,进一步优化聚类效果。 此外,论文可能还涵盖了实验部分,对比了MKKLV算法与其他聚类方法在各种数据集上的性能,以证明其优越性。实验结果通常会包括精度、召回率、F1分数等评价指标,以及可能的参数敏感性分析,以展示算法的稳定性和泛化能力。 这篇研究论文提出了一个新的聚类方法,它结合了潜在变量、多样性正则化和图正则化的优势,以解决多核k均值聚类的问题,旨在提供更精确、更具多样性的聚类结果。这种方法对于处理复杂数据集和需要深度理解数据内在关系的场景具有很高的应用价值。