重构LM算法的神经网络:高效求解常微分方程
185 浏览量
更新于2024-09-04
收藏 518KB PDF 举报
本文主要探讨了在解决常微分方程(Ordinary Differential Equations, ODEs)问题上的一种创新性方法,即使用重构的Levenberg-Marquardt(RLM)优化算法应用于前馈神经网络。作者李尚杰和李海滨来自内蒙古工业大学科学学院和内蒙古农业大学水利与土木工程学院,他们的研究领域涵盖了神经计算和应用以及结构可靠性分析。
RLM算法是一种经典的非线性最小二乘优化技术,通常用于神经网络的训练过程中,它结合了梯度下降法的快速收敛性和拟牛顿法的局部拟二次性质,能有效避免陷入局部最优。然而,在传统的应用中,该算法可能在处理复杂系统中的耦合ODEs时效率不高。因此,作者提出了一种新的多关节Levenberg-Marquardt(MJLM)训练算法,旨在针对耦合的微分方程组进行更高效的求解。
相比于现有文献中解决ODEs的其他新方法,重构的RLM算法具有显著的优势。首先,它能够利用神经网络的强大表示能力,将ODE的解映射到连续的函数空间,从而更好地捕捉非线性关系。其次,通过RLM的改进,算法的收敛速度得到了提升,特别是在处理高维或非线性较强的ODE系统时,这在实际问题求解中显得尤为重要。此外,作者强调的“联合训练”策略意味着在处理耦合方程时,整个系统的参数可以协同优化,减少了迭代次数,提高了整体性能。
该研究得到了国家自然科学基金的支持,表明其在理论和实践上都得到了一定的认可。李海滨教授作为通讯作者,他的研究兴趣集中在结构可靠性分析和神经计算上,这表明他在解决实际工程问题方面具有丰富的经验和深厚的专业背景。
这篇首发论文在神经网络领域为解决常微分方程提供了一个新颖且高效的求解框架,不仅提升了算法的性能,还为耦合ODE问题的求解开辟了新的可能性,对理论研究和实际应用都有深远的影响。
168 浏览量
147 浏览量
104 浏览量
228 浏览量
102 浏览量
107 浏览量
2023-04-02 上传
2010-08-03 上传
weixin_38534683
- 粉丝: 3
- 资源: 1020
最新资源
- rabbitmq3.8.9&otp21.3配套版本)
- taskcat:测试所有CloudFormation内容! (使用TaskCat)
- 傅里叶级数:可以找到一个函数的傅里叶级数-matlab开发
- TripPlanner:首次测试
- WebSocket-Chatroom:使用gorilla,nhooyr.io包实作WebSocket聊天室
- STM32F4xx中文参考手册(1).zip
- prosper-loan-dataset-findings:该数据集包含113,937笔贷款,每笔贷款有81个变量,包括贷款金额,借款人利率(或利率),当前贷款状态,借款人收入以及许多其他变量
- ChipGenius芯片精灵V4.00 --U盘芯片检测工具
- eSmithCh_V5_14:交互式史密斯圆图,绘制必要的线条来解决传输线或电子耦合问题。尝试并享受它-matlab开发
- 行业-2020年AI新基建白皮书.rar
- jQuery数字滚动累加动画插件
- 码头工人注册表
- 学历教育财务管理 宏达学历教育报名财务管理系统 v1.0
- datastructure_exercise
- github-file-icons::card_index_dividers:一个浏览器扩展,为GitHub,GitLab,gitea和gogs提供了不同的文件类型不同的图标
- Multiple-markers-on-google-maps