进化多目标优化的ELM算法:解决隐藏层冗余与随机性

0 下载量 159 浏览量 更新于2024-07-15 收藏 785KB PDF 举报
"基于进化多目标优化的极限学习机——一种解决隐藏层冗余与随机性的新方法" 极限学习机(ELM)是一种广泛应用于单隐藏层前馈神经网络的高效学习算法,因其快速的学习速度、优秀的泛化能力及简单的实现方式而备受关注。然而,ELM在实际应用中存在隐藏层的冗余和随机性问题,这主要源于特征的随机映射。传统的ELM通过随机初始化隐藏层节点来构建网络,这种方法可能导致不必要的计算复杂性和性能下降。 为了解决这一问题,研究者提出了一种名为EMO-ELM(进化多目标优化的极限学习机)的混合学习算法。EMO-ELM借鉴了进化多目标优化(Evolutionary Multi-objective Optimization, EMO)的思想,旨在同时优化两个相互冲突的目标:保持隐藏层的稀疏性和最大化分类或特征提取的性能。通过这种方式,EMO-ELM不仅考虑了隐藏层节点的选择,还试图减少不必要节点的数量,从而提高模型的效率和准确性。 在EMO-ELM中,进化算法被用来搜索最优的隐藏层节点配置,以平衡模型的复杂度和预测性能。这种方法对于监督分类任务尤其有用,因为它可以有效地调整网络结构以适应不同数据集的特性。在多项UCI数据集的实验中,EMO-ELM相比于传统的ELM以及其多种变体,表现出更优的分类性能。 此外,EMO-ELM在非监督的稀疏特征提取任务上也展现出强大的能力。通过选择最能代表原始数据的特征,它在保持高解释性的同时减少了数据的维度。实验结果显示,EMO-ELM在特征提取方面的表现甚至超过了主成分分析(PCA)等常用方法,进一步证明了其在处理复杂数据问题时的有效性。 EMO-ELM是极限学习机领域的一个重要进展,它通过引入进化多目标优化策略,成功地解决了ELM隐藏层的冗余和随机性问题,提高了模型的泛化能力和计算效率。这种技术对于那些需要高效、准确特征学习和分类的领域,如模式识别、图像处理、生物信息学等,具有重要的应用价值。