融合DECORATE的异构分类器集成算法提升精度

需积分: 13 1 下载量 75 浏览量 更新于2024-09-10 1 收藏 1.14MB PDF 举报
"这篇论文提出了一种融合DECORATE的异构分类器集成算法SDE,该算法在基于Stacking框架的基础上,通过DECORATE算法增强1-层成员分类器间的差异性,从而提高分类精度。实验结果证明,SDE算法在分类性能上优于传统的Stacking方法。" 在机器学习领域,分类器集成是一种有效的提高预测性能的技术,它通过组合多个分类器的预测结果来得到更准确的决策。本文主要关注的是异构分类器集成,即集合不同类型的分类器(如决策树、支持向量机、神经网络等)以构建一个强大的综合模型。通常,异构分类器由于其内在的多样性,能够捕获数据的不同方面,从而可能比同构分类器集成提供更好的性能。 Stacking是一种常用的分类器集成方法,它的工作原理是构建一个层次结构,其中第一层(基础层)包含多个分类器,第二层(元层)则是一个单一的分类器,这个元分类器会根据第一层分类器的预测结果来进行学习和决策。然而,传统Stacking方法中的分类器可能因为使用相同的训练数据而产生相似的决策边界,这可能限制了整体集成的性能。 为了解决这个问题,论文引入了DECORATE(Decorrelated Ensemble Construction through Artificial Training Examples)算法,这是一种用于同构分类器集成的技术,通过修改训练数据以增加分类器之间的差异性。在SDE算法中,DECORATE被应用到1-层的训练过程中,通过生成一定比例的人工数据来改变基础分类器的训练集,使得每个分类器在处理不同的数据分布时能发展出独特的特征识别能力,从而提高整个集成的多样性和准确性。 实验部分,作者对比了SDE算法与传统的Stacking方法在多个数据集上的分类性能,结果显示SDE在分类精度上有显著优势,这表明了融合DECORATE的策略对于增强异构分类器集成的性能是有效的。 这篇论文提出的SDE算法为分类器集成提供了一个新的视角,即通过DECORATE策略增强异构分类器之间的差异性,以达到提升集成性能的目的。这一方法对于机器学习和数据挖掘领域的研究者来说,提供了改进分类器集成方法的一个新思路,特别是在面对复杂、多变的数据集时,可能能够实现更优的预测效果。