鲁棒极限学习机:基于M估计的加权最小二乘方法

需积分: 13 1 下载量 152 浏览量 更新于2024-09-08 收藏 1.23MB PDF 举报
"一种基于鲁棒估计的极限学习机方法,旨在改进传统的极限学习机(ELM)算法,解决其在处理包含离群点和噪声数据时可能出现的问题。论文提出了一种名为鲁棒极限学习机(RBELM)的新算法,该算法采用M估计的加权最小二乘方法替代了最小二乘法来计算输出权值,从而增强了对异常值的抵抗力,提高了模型的准确性。通过在多个数据集上的回归和分类实验,证明了RBELM的有效性。" 极限学习机(ELM)是单隐层前馈神经网络(SLFNs)的一种形式,它的主要特点是结构简洁,学习速度快,并且具有出色的泛化性能。在ELM中,输出权值的计算通常依赖于最小二乘法(LE)。然而,经典LE对于离群点和噪声的敏感性较高,这可能导致训练得到的模型参数不准确,甚至出现完全错误的结果。 为了解决上述问题,研究者们提出了一种新的鲁棒极限学习机算法,即RBELM。该算法引入了M估计的概念,用以实现加权最小二乘法。这种方法能对异常值赋予较低的权重,从而减弱它们对整体模型训练的影响,提高了算法的鲁棒性。通过在多种数据集上进行的实验,RBELM展示了其在降低异常值影响方面的显著效果,证明了其在应对噪声数据时的优良性能。 论文作者包括胡义函、张小刚、陈华和李晶辉,他们分别在模式识别、工业过程控制和图像处理等领域有所研究。该工作得到了国家自然科学基金的支持,发表于《中国电机工程学报》2012年第8期,进一步强调了在神经网络和机器学习领域,稳健的估计方法对于提高模型性能的重要性。 关键词涉及极限学习机、稳健估计、鲁棒极限学习机、M估计和神经网络,表明该研究关注的是如何通过改进学习算法来增强神经网络在复杂环境下的适应性和准确性。这篇论文的研究成果对于提升ELM在实际应用中的表现,尤其是在面对含有异常值的数据集时,提供了重要的理论和技术支持。