信息论学习下SVDD的选择性集成提升方法

1 下载量 166 浏览量 更新于2024-08-28 收藏 1.18MB PDF 举报
本文主要探讨了"基于信息理论学习的SVDD选择性集成"这一主题,由作者Hong-Jie Xing和Yong-Le Wei来自河北大学的数学与信息科学学院以及计算机科学技术学院共同研究。他们针对传统支持向量数据描述符(SVDD)在提高泛化性能和抵抗噪声方面存在的局限,提出了一种新颖的集成方法。 传统的SVDD依赖于最小化总体误差或平方误差(SSE)准则,然而这种方法可能无法充分利用所有基础分类器的信息,特别是在处理噪声数据时。为了解决这个问题,研究人员引入了两个关键概念:互信息论中的correntropy和Rényi熵。 首先,他们利用基础分类器的半径与集成模型半径之间的correntropy作为替代SSE的评估标准。Correntropy是一种非线性度量,相比于平方误差,它能更好地捕捉数据分布的复杂性和不确定性,从而有助于减少噪声的影响,提升模型的稳健性。 其次,为了衡量集成后的多样性,作者定义了训练样本与集成中心之间的Rényi熵。Rényi熵作为一种多信息论工具,可以量化数据间的差异和分散程度,有助于确保集成模型具有良好的泛化能力。 此外,为了进一步增强模型的选择性,文章引入了1-norm正则化项到目标函数中。这种正则化策略有助于避免过拟合,确保模型在选择基础分类器时更加谨慎,只包含对整体性能贡献最大的部分。 实验结果在合成数据集和基准数据集上验证了这种基于信息理论学习的SVDD选择性集成方法的有效性。结果显示,与传统的SVDD相比,该方法显著提高了模型的泛化性能,并且对噪声数据表现出更好的鲁棒性。这为在实际应用中构建更高效、更健壮的机器学习模型提供了新的思路和方法。