最小二乘广义SVM回归算法:大规模数据处理的高效解决方案

需积分: 9 1 下载量 67 浏览量 更新于2024-09-05 收藏 172KB PDF 举报
该篇论文研究了"用于回归估计的最小二乘广义支持向量机"(LeastSquareGeneralizedSupportVectorMachines for Regression, 简称LS_GSVMs),发表于2004年7月的《系统工程理论与实践》第7期,文章编号为100026788(2004)0720094204。作者孙宗海和孙优贤来自浙江大学工业控制技术国家重点实验室,位于浙江杭州。 论文的核心贡献在于提出了一种改进的回归分析工具,即最小二乘广义支持向量机。这种模型的核函数相较于标准支持向量机(SVM)具有较少或几乎无限制,这使得它在处理回归任务时具有更大的灵活性。作者将这种最小二乘广义支持向量机转化为标准的二次规划(QP)问题,这是一种优化方法,通常用于求解线性或非线性模型中的最小化问题。 为了解决这个QP问题,作者采用了一种创新的算法,结合了基于矩阵分裂的超松弛法(Successive Over-Relaxation, SOR)和投影梯度法。矩阵分裂技术有助于分解大型矩阵,从而提高算法在大数据集上的效率。由于超松弛法的特点,这种方法允许逐个处理数据点,即使面对大规模数据也能保持高效。 论文的关键术语包括:最小二乘广义支持向量机、回归估计、超松弛法以及矩阵分裂。这些概念在文中紧密关联,共同构成了一个高效的机器学习框架,特别是在回归预测场景下。论文的中图分类号为TP391,文献标识码为A,表明了其在工程与计算机科学领域的学术定位。 这篇论文提供了一种新颖的方法论,展示了如何利用最小二乘广义支持向量机进行回归估计,并通过优化算法处理大规模数据,这对于处理实际问题中的复杂回归问题具有重要的理论和实践价值。