多支持向量机增量学习算法提升准确性

需积分: 11 0 下载量 194 浏览量 更新于2024-08-12 收藏 327KB PDF 举报
本文档深入探讨了"支持向量机增量学习算法研究",发表于2003年,作者为李凯和黄厚宽,他们来自北京交通大学计算机与信息技术学院。文章的核心关注点在于改进传统的支持向量机(SVM)在处理增量学习问题上的不足。传统SVM不具备内置的增量学习能力,这使得在处理新数据时,模型的更新和适应性成为一个挑战。 研究者注意到,尽管增量学习是许多实际应用中不可或缺的能力,现有的增量学习方法各有优劣。为解决这个问题,他们提出了一种新的算法,该算法利用多支持向量机(Multiple SVMs)结合固定划分(Fixed Partition)和过间隔(Exceeding Margin)技术。固定划分是一种数据分块策略,而过间隔则旨在保持模型的泛化能力,确保对新样本的正确预测。 作者通过实验验证了这个新算法,选取了标准数据集BUPA以及由NDC生成的数据集OUTTRAIN进行评估。实验结果显示,相比于单一支持向量机采用过间隔或固定划分的增量学习方法,多支持向量机的增量学习算法在正确率上表现更优。这意味着该算法能够更有效地处理新数据,提高模型的动态适应性和效率。 关键词方面,文章提到了关键概念,包括支持向量机(Support Vector Machine)、增量学习(Incremental Learning)、期望风险(Expected Risk)、固定划分(Fixed Partition)和过间隔(Exceeding Margin),这些词汇展示了研究的技术背景和焦点。 这篇论文不仅提出了一个创新的增量学习算法,还通过实证研究证明了它在实际数据集上的优越性,对于那些需要不断处理新数据并保持模型高效性的应用场景具有重要的理论和实践价值。