选择性对抗灰狼优化算法:增强探索与快速收敛

需积分: 5 0 下载量 184 浏览量 更新于2024-08-03 收藏 3.73MB PDF 举报
"这篇论文提出了一种新的优化算法——选择性对抗灰狼优化(Selective Opposition based Grey Wolf Optimization, SO-GWO),将对立面学习(OBL)融入灰狼优化算法(GWO)中,以提高其探索性能,同时保持快速收敛速度。通过对Spearman相关系数的运用,确定低级灰狼(ω狼)在哪些维度上进行对立学习,以避免无效探索,实现在不影响找到最优解可能性的情况下快速收敛。该方法经过23个优化函数的测试验证,结果表明其优越性。" 本文关注的是优化算法领域的创新,特别是针对元启发式算法的应用。灰狼优化算法(GWO)是一种新兴且受欢迎的优化工具,它模拟了灰狼群体中的狩猎行为来解决复杂问题。然而,GWO在搜索空间的探索和收敛速度之间可能存在平衡问题。为了解决这个问题,作者提出了选择性对抗策略,将对立面学习(OBL)的概念与GWO相结合。 对立面学习是一种通过创建并利用问题解的对立版本来促进算法探索的技术。在SO-GWO中,不是对所有维度进行对立学习,而是有选择地在某些维度上应用,这减少了不必要的计算开销,有助于更快地收敛到潜在的最优解。Spearman相关系数在这里起到了关键作用,它用于判断哪只“ω狼”(灰狼群中社会等级最低的狼)应该在哪一维度上进行对立学习,以最大化优化效果。 文章经过了一系列的测试,使用了23个不同的优化函数来评估新算法的性能。对比研究表明,SO-GWO在处理这些函数时表现出了更优的性能,证明了该方法的有效性和潜力。这对于优化问题,特别是在制造业、人工智能和优化研究等领域具有重要意义,因为这些领域经常需要解决复杂的优化挑战。 SO-GWO算法是灰狼优化算法的一种改进,通过引入选择性对抗学习,增强了算法的探索性,提高了收敛速度,并在实际问题中展现出优越的优化能力。这一方法对于未来优化算法的设计和改进提供了新的思路。