优化极限学习机:单变量迭代序列最小优化算法

需积分: 10 1 下载量 166 浏览量 更新于2024-08-25 1 收藏 787KB PDF 举报
"优化极限学习机的序列最小优化方法 (2011年),作者:丁晓剑、赵银亮,发表于《西安交通大学学报》第45卷第6期,2011年6月" 这篇论文主要探讨了如何解决优化极限学习机(Optimization-based Extreme Learning Machine, OMELM)在训练过程中遇到的速度慢和效率低的问题。传统的二次规划求解方法在处理OMELM时存在效率瓶颈,因此,作者提出了一种新的算法——单变量迭代序列最小优化(Sequential Single Variable Minimization, SSMO)算法。 SSMO算法的核心思想是在框式约束下优化拉格朗日乘子,以达到最小化目标函数的目的。在算法初始阶段,它会从所有拉格朗日乘子中选取能导致目标函数值下降幅度最大的乘子,并将其作为唯一变量进行处理。接着,算法会求解目标函数的最小值并更新该变量的值。这一过程会持续进行,直到所有的拉格朗日乘子都满足二次规划问题的Karush-Kuhn-Tucker (KKT)条件。KKT条件是求解非线性优化问题的一种重要判据,确保了局部最优解的存在。 实验结果显示,SSMO算法具有良好的泛化性能,只需要调整少量的参数值就能获得满意的结果。与采用序列最小优化(Sequential Minimal Optimization, SMO)算法的支持向量机(Support Vector Machine, SVM)相比,应用SSMO算法的OMELM在泛化性能上表现出优越性。此外,SSMO算法在随机数据集上的测试也显示了其较强的鲁棒性,即对数据变化的适应性和稳定性。 关键词涉及到的技术包括极限学习机(Extreme Learning Machine)、支持向量机(Support Vector Machine)以及序列最小优化(Sequential Minimal Optimization)。极限学习机是一种快速的单层神经网络训练方法,而支持向量机是机器学习中的经典算法,特别适用于小样本和高维数据。SSMO算法是对这两种机器学习模型训练过程的一种优化改进。 这篇论文提出的SSMO算法为优化极限学习机的训练提供了高效的方法,提升了训练速度和模型的泛化能力,对于实际应用中的大规模数据处理有重要的理论价值和实践意义。