带误差项的记忆梯度算法与广义Armijo步长搜索

需积分: 12 0 下载量 66 浏览量 更新于2024-08-12 收藏 182KB PDF 举报
"这篇论文是2009年发表的,由孙清滢、桑兆阳和吕炜三位作者合作完成,属于自然科学领域的学术论文,得到了国家自然科学基金和中国石油大学博士基金的支持。该研究主要关注非线性无约束优化问题,提出了一种结合广义Armijo步长搜索规则的记忆梯度算法,并考虑了目标函数梯度的误差项。通过证明在梯度一致连续的条件下的全局收敛性,展示了算法的有效性。论文还包括数值实验来验证算法性能。" 本文探讨的是非线性无约束优化问题,这是一个在工程、科学和经济等领域广泛遇到的问题。无约束优化的目标是在没有特定限制的情况下找到函数的最小值或最大值。传统的梯度方法基于函数的梯度信息来更新搜索方向,而记忆梯度法在此基础上引入了历史梯度信息,提高了算法的效率和鲁棒性。 广义Armijo步长搜索规则是一种常用的线搜索策略,它在每次迭代时调整步长以确保目标函数的下降。该规则要求步长满足一定的下降条件,即新的函数值相对于旧的函数值有足够大的下降比例。结合这个规则,新提出的算法能够更智能地选择步长,从而加速收敛并防止过度下降。 在算法设计中,考虑到实际应用中可能存在目标函数梯度的测量误差,作者引入了误差项。这使得算法更加适应现实世界中的不完美信息,增强了算法的实用性。论文证明了即使在存在误差的情况下,算法仍能保持全局收敛性,这是优化算法设计的一个关键指标。 此外,论文还提出了一种结合拟-Newton方法的记忆梯度算法。拟-Newton方法是对经典Newton方法的扩展,它不直接使用Hessian矩阵(目标函数的二阶导数矩阵),而是通过近似Hessian来减少计算复杂性。这种结合使得算法在处理大规模问题时更具优势,同时保持良好的收敛性质。 数值试验部分展示了算法在实际问题上的表现,通过比较不同条件下的结果,证实了所提算法的有效性和优越性。这些结果对于理解和评估算法的实际应用潜力至关重要。 这篇论文提出了一种创新的记忆梯度算法,结合了广义Armijo步长搜索规则和误差项处理,为非线性无约束优化提供了一个新的工具。通过理论分析和数值实验,证明了算法在处理这类问题时的高效性和可靠性。