重构LM算法的神经网络:高效求解常微分方程

1 下载量 40 浏览量 更新于2024-09-04 收藏 518KB PDF 举报
本文主要探讨了在解决常微分方程(Ordinary Differential Equations, ODEs)问题上的一种创新性方法,即使用重构的Levenberg-Marquardt(RLM)优化算法应用于前馈神经网络。作者李尚杰和李海滨来自内蒙古工业大学科学学院和内蒙古农业大学水利与土木工程学院,他们的研究领域涵盖了神经计算和应用以及结构可靠性分析。 RLM算法是一种经典的非线性最小二乘优化技术,通常用于神经网络的训练过程中,它结合了梯度下降法的快速收敛性和拟牛顿法的局部拟二次性质,能有效避免陷入局部最优。然而,在传统的应用中,该算法可能在处理复杂系统中的耦合ODEs时效率不高。因此,作者提出了一种新的多关节Levenberg-Marquardt(MJLM)训练算法,旨在针对耦合的微分方程组进行更高效的求解。 相比于现有文献中解决ODEs的其他新方法,重构的RLM算法具有显著的优势。首先,它能够利用神经网络的强大表示能力,将ODE的解映射到连续的函数空间,从而更好地捕捉非线性关系。其次,通过RLM的改进,算法的收敛速度得到了提升,特别是在处理高维或非线性较强的ODE系统时,这在实际问题求解中显得尤为重要。此外,作者强调的“联合训练”策略意味着在处理耦合方程时,整个系统的参数可以协同优化,减少了迭代次数,提高了整体性能。 该研究得到了国家自然科学基金的支持,表明其在理论和实践上都得到了一定的认可。李海滨教授作为通讯作者,他的研究兴趣集中在结构可靠性分析和神经计算上,这表明他在解决实际工程问题方面具有丰富的经验和深厚的专业背景。 这篇首发论文在神经网络领域为解决常微分方程提供了一个新颖且高效的求解框架,不仅提升了算法的性能,还为耦合ODE问题的求解开辟了新的可能性,对理论研究和实际应用都有深远的影响。