面向大样本的NKELM:快速核化极速学习机

0 下载量 123 浏览量 更新于2024-08-27 收藏 507KB PDF 举报
"这篇研究论文探讨了面向大样本数据的核化极速神经网络,即Kernel Extreme Learning Machine (KELM) 的优化问题。KELM是 Extreme Learning Machine (ELM) 的扩展,它通过引入核方法提升了模型的稳定性和泛化能力。然而,KELM在处理大规模数据集时,由于训练时间复杂度与样本数的三次幂成正比,导致其在大样本数据上的应用受到限制。为解决这一问题,作者提出了一种KELM的加速计算框架,并结合Nyström近似低秩分解方法,开发出快速算法Nyström Kernel Extreme Learning Machine (NKELM)。NKELM的训练时间复杂度显著降低,仅为样本数的一次幂,因此更适合处理大样本数据。实验结果证实,NKELM不仅在学习速度上表现出色,而且在泛化性能上也保持了良好水平。" 详细说明: 1. 极速神经网络(Extreme Learning Machine, ELM): ELM是一种单隐藏层前馈神经网络,它的主要特点是随机分配输入权重和偏置,而输出权重通过最小化误差直接计算,无需反向传播,极大地提高了训练速度。 2. 核化极速神经网络(Kernel Extreme Learning Machine, KELM): KELM是ELM的扩展,它利用核函数将输入空间映射到高维特征空间,从而提高模型的非线性建模能力和泛化性能。然而,KELM的训练时间复杂度较高,随着样本数量的增加,计算负担急剧增加。 3. Nyström近似低秩分解: Nyström方法是一种有效的矩阵近似技术,它通过随机子集采样来近似大型矩阵的奇异值分解,从而减少计算量,常用于大规模机器学习中的核方法。 4. NKELM(Nyström Kernel Extreme Learning Machine): 为了解决KELM在大样本数据上的效率问题,论文提出了NKELM算法,它结合了Nyström近似和KELM,通过减少计算复杂度,实现了对大样本数据的高效训练。 5. 性能评估: 实验表明,NKELM在大样本数据上展示了极快的学习速度,同时保持了良好的泛化性能,证明了其在处理大规模数据集时的优越性。 6. 应用场景: 这项研究对于需要处理大量数据的领域,如大数据分析、图像识别、自然语言处理等,提供了新的算法选择,可以有效地提高训练效率并保持模型的准确性。 7. 研究背景与支持: 论文的研究得到了多项国家级和省级科研项目的资助,涉及数据挖掘、机器学习和知识服务等多个领域。 8. 研究人员: 作者包括邓万宇、郑庆华和陈琳,他们分别在西安邮电大学和西安交通大学的计算机科学和电子与信息工程领域有深厚的学术背景,专注于数据挖掘、机器学习、知识服务以及网络安全的研究。