超启发式算法的低级参数自适应与启发式空间缩减:实证评估

1 下载量 119 浏览量 更新于2024-07-14 1 收藏 1.95MB PDF 举报
本文主要探讨了在超启发式算法中引入低级参数自适应(Low-Level Parameters Adaptation, LLP)功能的重要性,尤其是在面对具有参数化低级启发式算法(Low-Level Heuristics, LLHs)的问题时。超启发式算法是一种高级搜索策略,通过组合和控制一组基础算法来解决复杂问题,其目标是提高算法设计的灵活性和泛化能力,减少对特定问题领域的依赖。 传统超启发式方法中,LLHs通常预设固定的参数,这与超启发式寻求领域无关性的理念相悖。作者提出了一个名为AD-HH(具有LLP自适应功能的超启发式)的新方法,该方法的核心在于能够自动调整LLPs,以适应不同的问题实例。通过自适应地维护两个超启发式模型的LLPs,AD-HH增强了搜索策略的动态性,使得算法能够更好地应对各种问题特征。 文章强调了LLP适应可能导致的搜索空间扩大问题,因此作者引入了启发式空间缩减(Space Reductions, SAR)机制,作为一种有效的解决方案。SAR机制帮助AD-HH框架更高效地探索和管理可能的参数组合,同时避免了因参数调整带来的过大规模搜索。 作者选取p中值问题作为实验的基准案例,实验结果显示,AD-HH通过整合LLP自适应和SAR机制,在三个不同类型的基准实例上展现了强大的性能,其结果具有竞争力,证明了这种新型超启发式方法的有效性和实用性。 本文的主要贡献在于提出了一种创新的超启发式策略,即AD-HH,它通过自动调整低级参数和应用启发式空间缩减机制,实现了超启发式算法在实际问题上的更高效和灵活应用,有望在未来为优化问题求解提供新的解决方案。