Boosting加权ELM:解决不平衡学习中的样本权重优化

3 下载量 164 浏览量 更新于2024-08-26 1 收藏 559KB PDF 举报
提高加权ELM以实现不平衡学习是一篇探讨在深度学习领域中,尤其是单层前馈神经网络(SLFN)架构下的极限学习机(ELM)应用的论文。ELM因其快速的学习速度和出色的泛化能力,已经在众多机器学习任务中崭露头角。然而,当面对数据集中各类别分布严重不均衡的情况时,传统ELM的性能可能会受到影响。 作者们注意到,加权ELM作为一种改进方法,通过赋予每个训练样本不同的权重,试图平衡类别间的差异。尽管之前的研究已经提出了一些经验性的权重分配策略,但如何找到最佳的样本权重分配仍然是一个挑战。为了克服这一问题,研究者提出了Boosting加权ELM,它巧妙地将加权ELM融入了增强学习框架——AdaBoost。 Boosting加权ELM的核心在于将AdaBoost的权重分配机制与加权ELM结合,这种结合体现在:首先,将AdaBoost中反映样本重要性的分布权重作为加权ELM的训练样本权重,使得算法更加关注少数类样本。其次,对AdaBoost的两个关键部分进行了优化:一是设置初始分布权重为不对称,以加速算法收敛;二是针对不同类别独立调整分配权重,以维持权重的不对称性,确保对不平衡数据的敏感性。 在实验部分,作者使用了KEEL存储库中的16个二进制数据集和5个多类数据集进行验证。结果显示,相比于传统的加权ELM,Boosting加权ELM能够产生更为均衡的学习结果,这表明该方法在处理不平衡数据集时具有显著优势。此外,这篇论文还可能讨论了算法的具体实现细节、训练过程中的优化策略以及对比实验中其他竞争方法的性能。 本文对于解决实际问题中的不平衡学习问题提供了创新的方法,为极限学习机技术的发展和在现实世界中的应用开辟了新的可能性。未来的研究可能继续探索更精细的权重分配策略,以进一步提升算法在复杂不平衡数据环境下的性能。