递归正交最小二乘法(ROLS)在RBF神经网络中的应用

需积分: 46 11 下载量 93 浏览量 更新于2024-09-09 1 收藏 196KB PDF 举报
"一种新型径向基函数神经网络学习算法 ———递归正交最小二乘法(ROLS)" 本文介绍了一种新型的径向基函数神经网络(RBFNN)学习算法,即递归正交最小二乘法(Recursive Orthogonal Least Squares, ROLS)。RBF神经网络因其在非线性函数逼近和数据分类等领域的广泛应用而备受关注,特别是在信号处理、系统建模、控制及故障诊断等任务中。典型的RBF网络由一个非线性的隐藏层和一个线性的输出层构成。 传统的RBF网络训练通常分为两步:首先通过无监督学习方法(如聚类算法)选择网络的中心,这些中心应反映输入数据在训练集中的分布;然后使用最小二乘法来确定隐藏层到输出层之间的权重。相比于梯度下降法或共轭梯度法,这种方法训练速度更快,但确定合适的中心数量是一个挑战。过量的中心可能导致网络过于复杂,增加计算负担,并可能导致数值稳定性问题。 为了解决这个问题,文章提出了使用ROLS算法对RBF神经网络进行训练。ROLS算法是一种有效的在线学习方法,它能逐步构建一个正交的特征空间,减少特征之间的相关性。在ROLS训练过程中,可以获取到正交矩阵中的信息。随后,结合后向选择策略,逐步移除那些对网络残差贡献最小的中心。这种做法既能保持预测精度,又能简化网络结构,节省存储空间和计算成本。 通过这种方式,ROLS算法为RBF网络的学习提供了一个新的视角,能够在保证性能的前提下有效地减少网络的复杂性。文章的仿真和实验结果证实了ROLS算法在简化RBF网络结构上的有效性,表明这种方法对于实际应用是既有效又实用的。 关键词:RBF神经网络,递归正交最小二乘,后向选择,网络简化 中图分类号:TP183 文献标识码:A 在实际应用中,ROLS算法为解决RBF网络中心选择的难题提供了新思路,有助于提高网络的效率和泛化能力,这对于需要快速响应和高精度预测的系统特别有益。此外,通过网络结构的简化,还可以避免过度拟合的问题,提升模型的稳定性和可靠性。