SGB-ELM:一种改进的随机梯度提升集成极端学习机方法

0 下载量 61 浏览量 更新于2024-07-14 收藏 1.96MB PDF 举报
SGB-ELM是一项针对极端学习机(ELM)的创新研究,它提出了一种先进的集成策略,是随机梯度提升技术在ELM框架中的应用。该论文由华国、姬奎王、魏傲和于林何四位作者共同完成,他们分别来自兰州财经大学信息工程学院和深圳大学计算机科学与软件工程学院。 传统的ELM是一种单层前馈神经网络,通过随机矩阵和固定权重的方式进行训练,具有快速训练速度和高预测性能的特点。然而,为了提高其泛化能力和稳健性,SGB-ELM并没有直接将随机梯度提升算法融入到ELM的基本流程中,而是采取了一种递进式的方法。在这个新型集成方法中,SGB-ELM构建了一系列弱ELM模型,每个个体模型都是通过迭代的方式,利用随机梯度下降来调整参数,以逐步减少剩余误差。 具体来说,SGB-ELM的流程包括以下几个关键步骤: 1. 初始化:首先创建一个基础的ELM模型作为初始成员。 2. 弱学习:每次迭代中,选择一部分训练样本并计算残差,这些残差反映了当前模型在特定数据集上的性能不足。 3. 更新:根据残差,训练一个新的弱ELM模型,目标是减小剩余的预测误差。这个新模型通常会在特征空间中找到一个更好的决策边界。 4. 整合:将新的弱ELM模型加入到原始模型的集成中,通过加权平均或投票的方式整合所有模型的预测结果,以提高整体性能。 5. 重复:重复上述过程直到满足停止条件,如预设的迭代次数或者剩余误差达到可接受的阈值。 SGB-ELM的优势在于它结合了ELM的简单性和随机梯度提升的灵活性,能够在保持快速训练的同时,通过集成多个弱模型来提升预测精度和鲁棒性。此外,由于采用的是随机采样策略,它对大规模数据集有较好的适应性,并且在处理非线性和复杂问题时显示出优越性。 SGB-ELM是一种创新的集成学习方法,它在保持ELM高效性的基础上,通过引入随机梯度提升技术,为解决实际问题提供了强大的工具,对于提升机器学习模型在实际场景中的表现具有重要意义。在未来的研究中,SGB-ELM可能会激发更多的研究者探索更多基于随机梯度提升的ELM变体,进一步推动机器学习领域的理论和实践发展。