没有合适的资源?快使用搜索试试~ 我知道了~
稀疏约束神经网络在偏微分方程模型发现中的应用Gert-Jan Both,1 GijsV ermarieün,2Remy Kusters11Universite´ de Paris,INSERM U1284,Center for Research and Interdisciplinarity(CRI),F-75006Paris,France2荷兰莱顿大学莱顿天文台gert-jan. cri-paris.org,vermarien@strw.leidenuniv.nl,remy. cri-paris.org摘要候选特征库上的稀疏回归已经发展成为发现时空数据集下的偏微分方程的主要方法。这些特征包括高阶导数,将模型发现限制在具有低噪声的密集采样数据集基于神经网络的方法通过构建数据的代理模型来规避这一限制在本文中,我们提出了一个模块化框架,该框架使用任何稀疏回归技术动态确定基于深度学习的代理的稀疏模式。使用我们的新方法,我们引入了一个新的约束的神经 网 络 , 并 展 示 了 如 何 不 同 的 网 络 架 构 和 稀 疏 性estimator提高模型发现的准确性和收敛的几个基准的例子。我们的框架可以在https://github.com/PhIMaL/DeePyMoD介绍模型发现的目的是从大的时空数据集中发现形式为偏微分方程的解释模型。大多数算法应用稀疏回归的一组预定义的可以didate条款,最初提出的Brunton等人。 对于使用SINDY的ODE(Brunton,Proctor和Kutz 2016)和Rudy等 人对 于 使 用PDE-find 的 PDE( Rudy 等 人) 。2017 ) 。 通 过 将 未 知 微 分 方 程 写 成 t u = f ( u ,ux,…)并且假设右手侧是预定义项的线性组合,即 f(u,u,x,…)= au + bu x+… = Θξ,模型发现简化为找到稀疏系数向量ξ。众所周知,计算时间导数ut和函数库Θ对于噪声和稀疏数据是困难的,因为它涉及计算更高阶导数。由于使用了诸如有限差分或样条插值的数值微分技术,这些项中的误差通常很高,从而将经典模型发现限制在低噪声和密集采样的数据集。基于深度学习的方法通过从数据构建代理并且使用自动微分从该数字孪生计算特征库Θ以及时间导数ut来该方法显著提高了时间导数和库在噪声和稀疏数据中的准确性集合,但是遭受收敛问题,并且迄今为止,不利用高级稀疏回归技术。在本文中,我们提出了一种模块化方法,将基于深度学习的模型与最先进的稀疏回归技术相结合。我们的框架由一个神经网络来建模的数据,从我们构建的函数库。我们的方法的关键在于,我们在整个训练过程中动态地应用掩码来选择函数库中的活动项,并将网络约束到由这些活动项给出的方程的解为了确定这个掩码,我们可以使用任何不可微的稀疏提升算法(见图1)。这使我们能够使用一个约束的神经网络模型的数据和构建一个准确的函数库,而先进的稀疏促进算法,rithm是用来动态地发现从网络的输出的基础上的方程。我们提出了三个实验,以显示如何改变这些组件提高模型发现的性能。(I)我们取代了基于梯度的优化的约束,由一个基于普通最小二乘法,导致更快的收敛。(II)我们表明,使用PDE-find来找到活性成分优于基于阈值的Lasso方法在高 噪 声 数 据 集 。 (III) 我 们 使 用 SIREN ( Sitzmann etal.2020)而不是标准的前馈神经网络,使我们能够从高度复杂的数据集中发现方程。相关工作稀 疏 回 归 作 为 发 现 微 分 方 程 的 手 段 由 SINDY(Brunton,Proctor和Kutz 2016)和PDE-find(Rudy etal. 2017 ) 。 它 们 已 经 扩 展 到 自 动 化 超 参 数 调 谐(Champion et al. 2019a; Maddu et al. 2019);使用稀疏贝叶斯学习进行模型发现的贝叶斯方法(Yuan et al.2019),参数微分方程的模型发现(Rudy,Kutz和Brunton 2019)和PDE发现的进化方法(Maslyaev ,Hvatov和Kalyuzhnaya 2019)。基于深度学习的模型发现随着Physics Informed neuralnetworks(Raissi,Perdikaris,andCopyrightc 2021,由其作者撰写允许使用Karniadakis 2017a,b),神经网络已经成为知识共享许可署名4.0国际(CC BY 4.0)创建数据的替代,然后对网络预测执行稀疏回归◦国国2→国国2数据图1:我们的框架的示意性概述(I)函数逼近器构造数据的替代,(II)使用自动微分从其构造可能的项和时间导数的库(III)稀疏性估计器使用稀疏回归选择库中的活动项,并且(IV)函数逼近器被约束到由约束的活动项所允许的解决方案。(Schae f fer2017;Be r gandNystr o¨m2019)。或者,引入神经ODE来发现未知的控制方程(Rackauckas et al.2020年)的物理数据集。在(Chen,Liu和Sun 2020)中考虑了基于改变方向方法的不同优化策略,最近开发了基于图形的方法(Seo和Liu 2019;桑切斯-冈萨雷斯等人2018)。(Grey-danus,Dzamba和Yosinski 2019)和(Cranmer et al.2020年)来自稀疏性选择过程本身的约束。我们首先计算一个稀疏掩码g,并仅通过掩码中的有效项来约束网络:我们用ξ g来约束神经网络,而不是用ξ来约束神经网络。1与L=1Σ(u−u)2+1Σ(u−Θ(ξ·g))。(二)分别使用哈密顿和拉格朗日框架直接编码神经网络中的对称性最后,自动编码器已被用于建模偏微分方程和发现Nii i=1Nt ii i=1潜在变量(Lu,Kim,andSolja cˇi c´2019;Itenetal. 2020),但不导致显式方程并且需要大量数据。基于深度学习的稀疏回归基于深度学习的模型发现使用神经网络来构建数据u的surrogate模型u。使用来自u的自动微分来构建候选项Θ的库,并且神经网络工作被约束到该库所允许的解决方案(Both et al. 2019年)。因此,网络的损失函数由两个贡献组成,(i)学习映射(→x,t)的均方误差。(ii)约束网络的项,L=1Σ(u−u)2+1Σ(u−θξ)。(一)使用EQ进行训练2需要两个步骤:首先,我们计算g使用稀疏估计器。接下来,我们使用掩码系数向量相对于网络参数将其最小化稀疏掩码g不需要可微地计算,使得可以使用任何经典的不可微稀疏估计器此方法具有若干额外优点:i)它提供了系数向量的无偏估计,因为我们不对ξ应用11或12正则化,从剩余的活动术语中提取,允许动态添加以及在整个训练过程中去除活动项,以及iii)我们可以在稀疏估计器中使用交叉验证来找到用于模型选择的最佳超参数。最后,我们注意到稀疏掩码g反映了注意力 在 变 形 金 刚 中 的 作 用 ( Bahdanau , Cho 和 Bengio2016)。利用这一变化,我们使用四个模块构建了一个基于深度学习的模型发现的通用框架(见图1)。(I)一个函数逼近器构造一个超函数Niii=1Nt i ii=1门模型的数据,(二)从其中一个库的可能项和时间导数使用自动稀疏系数向量ξ与网络参数同时学习,并且起到两个作用:1)确定活动的(即,非零)基本PDE的分量我们建议通过解耦来分离这两项任务分化(III)稀疏性估计器构造稀疏性掩码以使用一些稀疏回归算法来选择库中的活动项,以及(IV)约束将函数逼近器约束到从稀疏性估计器获得的活动项所允许的解决方案功能。约图书馆稀疏性确定掩码约束稀疏掩码MSE注册基础PDE−·ξ |−|培训 我们通常使用A计算稀疏掩码g一个外部的、不可微的估计量。在这种情况下,更新-在正确的时间佩戴口罩至关重要:在函数近似器已经合理地近似数据之前,更新掩码将不利地影响训练,因为它可能选择错误的项。反之亦然,更新掩码太晚有使用来自过拟合网络的函数库的我们本着“提前停止”的精神实施一个程序来决定何时更新:数据集被分成训练集和测试集,一旦测试集的均方误差达到最小值或变化小于预设值δ。我们通常设置δ=10−6,以确保网络学习了数据的良好表示。在第一次更新之后,我们使用稀疏估计器定期更新掩码。在图2中,我们在Burgers方程上展示了这个训练过程,其中有1500个样本,白噪声为2%它显示了面板A中训练集和测试集的损失,面板B中的稀疏掩码和C中的稀疏掩码。在实践中,我们观察到,具有小噪声的大数据集通常在仅单个稀疏更新之后发现正确的当系数向量的l1范数保持恒定时,达到最终收敛。损失Package我们在https://github.com/PhIMAL/DeePyMoD上提供了我们的框架作为基于python的包,在https://phimal上提供了文档和示例。github.io/DeePyMoD/。与我们的方法相对应,每个模型由四个模块组成:函数近似器、库、约束和稀疏估计器模块。每个模块都可以定制或更换,而不会影响其他模块,从而允许快速实验。我们的框架是建立在Pytorch(Paszke et al. 2019)和任何Pytorch模型(即递归神经网络)可以用作函数逼 近 器 。 稀 疏 估 计 器 模 块 遵 循 Scikit-learn API(Pedregosa等人;Buitinck等人2013),即, 所有内置的Scikit-learn估计器,例如PySindy中的那些(de Silva etal.2020)或SK-time(L ¨ ningetal.), 可以使用实验约束方程中的稀疏系数向量ξ。1通常通过与神经网络参数θ同时优化来找到。考虑一个参数配置为θ*的网络,求ξ的问题可以写成arg minut(θ*)Θ(θ*)ξ2。这可以在温和的假设下通过最小二乘法解析地解决;我们通过每次迭代求解该问题来计算ξ,而不是使用梯度下降来优化它。在图3中,我们比较了Burgers数据集1上的两种约束策略,通过训练5000个历元,而不更新稀疏掩码2。1我们求解ut = uxx + νuux,初始条件为ν=0。1,对于x=[ 3,4],t=[0. 5,5],随机采样2000个点并添加10%白噪声。2所有实验都使用了一个5层tanh激活函数的网络,每层30个神经元。 网络使用ADAM优化器进行优化,学习率为210−3,β=(0. 99,0。999)。图2:A)测试集的MSE和训练集的总损失垂直线指示第一次应用稀疏遮罩的时间。B)作为时期数量的函数的十二个系数需要恢复两项uxx和uux。C)训练期间的动态稀疏掩码黄色组件处于活动状态,蓝色组件处于非活动状态。图A)示出了最小二乘法达到了一致的较低损失。更引人注目的是,我们在面板中显示B) 系数中的平均绝对误差低三个数量级。我们解释的差异作为结果的随机初始化的ξ:网络最初是由不正确的系数,延长收敛约束。与最小二乘法相比,随机初始化也会导致结果的更最小二乘法不受初始化的敏感性和一致收敛。稀疏估计器与神经网络分开实现稀疏估计器允许我们使用任何稀疏提升算法。在这里,我们展示了PDE模型发现的经典方法PDE-find(Rudy et al. 2017),可以与神经网络一起使用,在高度稀疏和噪声的数据集中进行模型发现。我们将其与图4方法中的阈值Lasso 3进行比较(Both et al. 2019)在具有变化的噪声量的Burgers数据集4上进行。PDE-find估计器发现3我们使用预设阈值0.1。4见脚注2,仅随机抽样1000个点。系数二三掩模−·A列车损失41.00.80.60.460.28时代B系数误差00.0电话:020 - 406080100噪音水平(%)123012345时代1e3图3:A)损失和B)利用梯度下降和最小二乘约束获得的系数的平均绝对误差,作为历元数的函数结果已在二十次运行中取平均值,阴影区域表示标准偏差。在大多数情况下,即使噪声高达60%-80%,也可以使用正确的方程,而阈值化的lasso大多数在40%时失败。我们强调,我们在这里提出的模块化方法更高级的稀疏估计器,如SR3(Champion et al.2019b)可以容易地包括在该框架中。我们在图5中示出了基于tanh的NN未能收敛于Kuramoto-Shivashinksy(KS)方程 5的数据集(图A和B)。因此,系数向量不正确(图D)。由于我们的框架对底层函数近似器是不可知的,因此我们使用SIREN6,其能够学习底层动态中非常尖锐的在图B中,我们展示了SIREN能够学习KS方程的复杂动力学,并且在图C中,它发现了正确的方程7。该示例表明,函数逼近器的选择可以是基于神经网络的模型发现的成功的决定性因素。使用我们的框架,我们还可以探索使用RNN,神经ODE( Rackauckas et al.2020 ) 或 图 神 经 网 络 ( Seo 和 Liu2019)。图4:作为阈值化lasso和PDE-find稀疏估计器的噪声水平的函数的正确发现的Burgers方程的分数(在10次运行上平均)讨论和今后的工作在本文中,我们介绍了一个模型发现框架,将经典的稀疏估计与基于深度学习的代理相结合。在此基础上,我们证明了在训练期间替换函数逼近器、约束或动态应用稀疏估计器可以将模型发现扩展到更复杂的数据集,加快收敛速度或使其对噪声更具鲁棒性四个组件中的每一个都与其他组件解耦,并且可以独立地进行更改,这使得我们的方法为未来的研究奠定了坚实的基础。目前,函数逼近器简单地使用前馈神经网络学习解决方案。我们怀疑添加更多的结构,例如通过使用递归、卷积或图神经网络,将提高模型发现的性能。例如通过实施套索或岭回归来正则化约束也可能是有益以不可微的方式更新稀疏掩码是可行的,因为神经网络能够学习相当准确的代理,而不会对约束施加稀疏性。如果网络无法学习准确的表示,我们的方法就会失败。以可微分的方式更新掩模将不会遭受这个缺点,并且我们打算在未来的工作中追求这一点。致谢这项工作得到了国际广播电台研究员的支持,归功于雷米·库斯特。我们感谢Betten-court Schueller基金会的长期合作伙伴关系和NVidia在学术资助计划下提供GPU。我们还要感谢Numpy 的作者和贡献 者(Harris et al.2020))、Scipy((Virtanen et al. 2020))、Scikit-learn ( ( Pedregosa 等 人 ) ) 、 Matplotlib ( ( Hunter2007))、Ipython((Perez and Granger 2007))和Pytorch((Paszke et al.2019))使我们的工作通过他们的开放-5我们求解出tu+uux+uxx+uxxxx=0,其中x=源软件。作者声明没有竞争利益。[0,100],t=[0,44],随机抽取25000点,加5%白噪音6两个网络都使用8层50个神经元。我们使用ADAM训练SIREN,学习率为2。510−4且β=(0. 999,0。九九九)7粗体;uux:绿色,uxx:蓝色和uxxxx:橙色引用Bahdanau,D.; Cho,K.;和Bengio,Y. 2016.通过联合学习对齐和翻译的神经机器翻译。arXiv:1409.0473 [cs,stat]URLhttp://arxiv.org/abs/1409.0473.ArXiv:1409.0473。毕业说明书用Lst. 平方毕业说明书用Lst. 平方阈值PDE-findLog MAE分数正确原木成本仓本-希瓦辛斯基BMSE101C警报0十两1035丹100104十0.0 0.5 1.0 1.52.0时期1e4100.0 0.5 1.0 1.5 2.0时期1e4图5:A)KS方程的解下图显示了最后时间点的横截面:t=44。B)作为基于tanh的NN和SIREN NN两者的时期数量的函数的MSE系数作为C)SIREN的时期数的函数以及D)基于双曲正切的NN。图C和D中的粗曲线是KS方程分量中的项;绿色:uu x:,蓝色:u xx和橙色:u xxxx。只有SIREN才能发现正确的方程式。Be r g,J.; 和Nystr o¨m,K. 2019年。数据驱动是指在复 杂 数 据 集 中 对 偏 微 分 方 程 的 研 究 Journal ofComputational Physics384 : 239-252. ISSN 00219991 。doi:10.1016/j. jcp。2019.01.036.网址http://arxiv.org/abs/1808.10788。ArXiv:1808.10788。两个都是G J.; Choudhury,S.; Sens,P.;和Kusters,R.2019. DeepMoD : 噪 声 数 据 中 的 模 型 发 现 深 度 学 习arXiv:1904.09406[physics,q-bio,stat]URLhttp://arxiv.org/abs/1904.09406.ArXiv:1904.09406。Brunton,S. L.; Proctor,J. L.;和Kutz,J.国2016.用非线性动力系统的稀疏辨识从数据中分离覆盖控制方程. 美国国家科学院院刊113(15):3932-3937。ISSN 0027-8424、1091-6490。doi:10.1073/pnas.1517384113。网址http://www.pnas.org/lookup/doi/10.1073/pnas.1517384113。Buitinck , L.;Louppe , G.;Blondel , M.;Pedregosa ,F.;Mueller,A.; Grisel,O.; Niculae,V.; Prettenhofer,P.;Gramfort,A.; Grobler,J.; Layton,R.; Vanderplas,J.;Joly,A.; Holt,B.;和Varoquaux,G. 2013.机器学习软件的API设计:scikit-learn项目的经验。arXiv:1309.0238[cs]URLhttp://arxiv.org/abs/1309.0238.ArXiv:1309.0238。Champion,K.; Lusch,B.; Kutz,J. N.;和Brunton,S.法律 2019年 a 。 数据 驱 动的 坐 标和 控 制方 程 的发 现 。arXiv:1904.02107[stat]URLhttp://arxiv.org/abs/1904.02107. ArXiv:1904.02107。Champion,K.;Zheng,P.;Aravkin,A.Y.; Brunton,S.L.;和Kutz,J.国2019年b。一个统一的稀疏优化框架,用于从 数 据 中 学 习 简 约 的 物 理 模 型 。 arXiv : 1906.10612[physics] URL http://arxiv.org/abs/1906. 10612 ArXiv :1906.10612。Chen,Z.;Liu,Y.;Sun,H.2020年。物理的深度学习从稀缺的数据。arXiv:2005.03448 [physics,stat] URLhttp://arxiv.org/abs/2005.03448. ArXiv:2005.03448。Cranmer , M.;Greydanus , S.;Hoyer , S.;Battaglia ,P.;Spergel,D.;和Ho,S. 2020.拉格朗日神经网络arXiv:2003.04630[physics,stat]URLhttp://arxiv.org/abs/2003.04630. ArXiv:2003.04630。de Silva,B. M.; Champion,K.; Quade,M.; Loiseau,J.C.; Kutz,J. N.;和Brunton,S.法律2020. PySINDy:一个Python包,用于从数据中稀疏识别非线性动力学。arXiv:2004.08424[physics]URLhttp://arxiv.org/abs/2004.08424. ArXiv:2004.08424。Greydanus , S.; Dzamba , M.; 和 Yosinski , J. 2019.Hamilton神经网络arXiv:1906.01563 [cs]URL http://arxiv.org/abs/1906.01563。ArXiv:1906.01563。哈 里 斯 角 R.; Millman , K. J.; van der Walt , S. J.;Gommers , R.; Virtanen , P.;Cournapeau , D.;Wieser ,E.;Taylor,J.;伯格S.; Smith,N.J.; Kern,R.;Picus,M.;Hoyer,S.;范·科克维克先生H.; Brett,M.; Haldane,A.; del R'ıo,J. F.; Wiebe,M.; Peterson,P.; Ge'rard-Marchant,P.; Sheppard,K.;Redd y,T.; Weckesser,W.; Abbasi,H.; Gohlke,C.;和Oliphant , T. 大 肠 2020. 用 NumPy 编 程 。 Nature585(7825):357-362. ISSN 0028-0836、1476-4687。doi:10.1038/s41586-020-2649-2。网址http://www.nature.com/articles/s41586-020-2649-2。亨 特 , J.D. 2007. Matplotlib : 一 个 2D 图 形 环 境 。Computing in Science Engineering9 ( 3 ) : 90-95. ISSN1558- 366X。doi:10.1109/MCSE.2007.55。会议名称:计算机科学与工程.Iten , R.;Metger , T.;Wilming , H.;del Rio , L.; 和Renner,R.2020.用神经网络发现物理概念。PhysicalReview Letters124(1):010508. ISSN 0031-9007、1079-7114 。 doi : 10.1103/PhysRevLett.124.010508 。 URLhttp://arxiv.org/abs/1807.10300。ArXiv:1807.10300。警笛丹你不Lu,P. Y.; Kim,S.; 和Solja cˇi c′,M. 2019年。利用无监督学习从时空系统中提取不可预测的物理参数arXiv:1907.06011[physics,stat]URLhttp://arxiv.org/abs/1907.06011. ArXiv:1907.06011。Lo¨ning,M.; Bagnall ,A.; Ganesh ,S.;和Kaza kov,V. ??sktime:A Unified Interface for Machine Learningwith Time Series 10.Maddu,S.;奇斯曼湾L.; 斯巴尔扎里尼岛F.; 和Müller,梭 法律 2019. 稳定性选择使得能够从有限的噪声数据中鲁棒地学习偏微分方程。arXiv:1907.07810 [physics]URLhttp://arxiv.org/abs/1907.07810ArXiv:1907.07810。Maslyaev,M.; Hvatov,A.;和Kalyuzhnaya,A. 2019.数据驱动的PDE发现与进化的方法。arXiv:1903.08011[cs,math]11540:635-641. doi:10.1007/978-3-030-22750-061.网址http://arxiv.org/abs/1903.08011。ArXiv:1903.08011。Paszke,A.; Gross,S.; Massa,F.; Lerer,A.; Bradbury,J.; Chanan,G.; Killeen ,T.; Lin ,Z.; Gimelshein ,N.;Antiga,L.; Desmaison,A.; Kopf,A.; Yang,E.; De Vito,Z.; raisonM.; Tejani,A.; Chilamkurthy,S.; Steiner,B.; Fang,L.;Bai,J.;和Chintala,S. 2019. PyTorch:一个命令式的高性能 深度学习 库。arXiv:1912.01703 [cs ,stat] URLhttp://arxiv.org/abs/1912.01703. ArXiv:1912.01703。Pedregosa,F.; Varoquaux,G.; Gramfort,A.; Michel,V.;Thirion,B.; Grisel,O.; Blondel,M.; Prettenhofer,P.;Weiss,R.; Dubourg,V.;Vanderplas,J.;Passos,A.;和库尔纳波学位??Scikit-learn:Python中的机器学习Python6中的机器学习Perez,F.; Granger,B.大肠2007.IPython:一个系统交 互 式 科 学 计 算 Computing in Sci-ence Engineering9(3):21-29.ISSN1558-366X。doi:10.1109/MCSE.2007.53。Rackauckas , C.; Ma , Y.; Martensen , J.; Warner , C.;Zubov,K.; Supekar,R.; Skinner,D.;和Ramadhan,A.2020. 科 学 机 器 学 习 中 的 通 用 微 分 方 程 。 arXiv :2001.04385 [cs,math,q-bio,stat]URL http://arxiv.org/abs/2001.04385。ArXiv:2001.04385。Raissi,M.; Perdikaris,P.;和Karniadakis,G.大肠2017年a。物理学指导的深度学习(第一部分):非线性偏微分方程的数据驱动解。arXiv:1711.10561 [cs,math,stat]URLhttp://arxiv.org/abs/1711.10561.ArXiv:1711.10561。Raissi,M.; Perdikaris,P.;和Karniadakis,G.大肠2017年b。物理学指导的深度学习(第二部分):数据驱动的非线性偏微分方程发现。arXiv:1711.10566 [cs,math,stat]URLhttp://arxiv.org/abs/1711.10566.ArXiv:1711.10566。Rudy,S. H.; Brunton,S. L.; Proctor,J. L.;和Kutz,J.国2017.偏微分方程的数据驱动发现。Science Advances3( 4 ) : e1602614.ISSN2375-2548 。 doi :10.1126/sciadv.1602614。网址http://advances.sciencemag。org/lookup/doi/10.1126/sciadv.1602614.Rudy,S.H.; Kutz,J.N.; 和Brunton,S.法律2019年。具有时间步进约束的动态和信号噪声分解的深度Journal ofComputational Physics396:483-506. ISSN 00219991。doi:10.1016/j.jcp.2019.06.056。网址http://arxiv.org/abs/1808.02578。ArXiv:1808.02578。Sanchez-Gonzalez,A.;Heess,N.;Springenberg,J.T.;Merel,J.; Riedmiller,M.; Hadsell,R.;和Battaglia,P.2018.图形网络作为可学习的物理引擎进行推理和控制。arXiv:1806.01242[cs,stat]URLhttp://arxiv.org/abs/1806.01242.ArXiv :1806.01242。Schaeffer,H. 2017.通过数据发现和稀疏优化学习偏微分方程。英国皇家学会论文集A:数学,物理和工程科学473(2197):20160446。ISSN 1364-5021,1471-2946。 doi:10.1098/rspa.2016.0446。 网址https://royalsocietypublishing.org/doi/10.1098/rspa.2016.0446。Seo,S.;和Liu,Y. 2019.可区分的物理信息图网络。arXiv:1902.02950[cs,stat]URLarxiv.org/abs/1902.02950. ArXiv:1902.02950。Sitzmann , V.;Martel , J. 国 P.; Bergman , A.W.;Lindell,D.B.;和Wetzstein,G.2020年。具有周期激活函数的隐式神经表示arXiv:2006.09661 [cs,eess]URLhttp://arxiv.org/abs/2006.09661.ArXiv:2006.09661。Virtanen , P.; Gommers , R.; Oliphant , T.E.;Haberland , M.; Reddy , T.; Cournapeau , D.;Burovski,E.; Peterson,P.; Weckesser,W.;Bright,J.;van der Walt , S.J.; Brett , M.;Wil- son , J.;Millman,K. J.; Mayorov,N.; Nelson,A.室J.; 琼斯E.; Kern,R.;Larson,E.;凯里角J.; 张文辉,张文辉;摩尔大肠W.; VanderPlas,J.; Laxalde,D.; Perktold,J.;Cimrman,R.; Henriksen,I.;Quintero、E.A.; 哈里斯角R.; 阿奇博尔德上 午 M.; Ribeiro , A. H.; Pedregosa , F.; vanMulbregt,P.;贡献者,S。2020. SciPy 1.0科学计算Python Nature Methods17(3):261-272.ISSN 1548-7091、1548-7105。doi:10.1038/s41592-019-0686-2. 网 址 http://arxiv.org/abs/1907.10121 。ArXiv:1907.10121。Yuan , Y.;Li , J.;Li , L.;Jiang , F.;Tang , X.;Zhang ,F.;Liu,S.;Goncalves,J.; Voss,H. U.; Li,X.; Kurths,J.;和Ding,H. 2019.时空数据中偏微分方程的机器发现。arXiv:1909.06730[physics,stat]URLhttp://arxiv.org/abs/1909. 06730. ArXiv:1909.06730。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Aspose资源包:转PDF无水印学习工具
- Go语言控制台输入输出操作教程
- 红外遥控报警器原理及应用详解下载
- 控制卷筒纸侧面位置的先进装置技术解析
- 易语言加解密例程源码详解与实践
- SpringMVC客户管理系统:Hibernate与Bootstrap集成实践
- 深入理解JavaScript Set与WeakSet的使用
- 深入解析接收存储及发送装置的广播技术方法
- zyString模块1.0源码公开-易语言编程利器
- Android记分板UI设计:SimpleScoreboard的简洁与高效
- 量子网格列设置存储组件:开源解决方案
- 全面技术源码合集:CcVita Php Check v1.1
- 中军创易语言抢购软件:付款功能解析
- Python手动实现图像滤波教程
- MATLAB源代码实现基于DFT的量子传输分析
- 开源程序Hukoch.exe:简化食谱管理与导入功能
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功