没有合适的资源?快使用搜索试试~ 我知道了~
可在ScienceDirect上获得目录列表计算设计与工程杂志首页:www.elsevier.com/locate/jcde计算设计与工程学报6(2019)33基于四元数域Sushil Kumar,Bishin Kumar Tripathi计算机科学工程系,哈考特巴特勒技术大学,坎普尔208002,北方邦,印度阿提奇莱因福奥文章历史记录:2018年1月29日收到2018年4月4日收到修订版,2018年在线提供2018年保留字:四元数多层感知器时间序列预测A B S T R A C T突触的非线性空间分组过程是神经计算研究人员实现神经元计算能力的迷人方法之一。研究人员通常采用基于求和(线性)、乘积(线性)或径向基(非线性)聚合的神经元模型来处理突触,构造多层前馈神经网络,但这些神经元模型及其相应的神经网络各有优缺点。多层网络一般用于实现输入输出映射的全局逼近,但有时会陷入局部极小,而非线性径向基函数(RBF)网络是基于指数衰减的,用于实现输入输出映射的局部逼近。它们的优缺点促使我们设计了两种新的基于四元数域补偿聚集函数的人工神经元模型这些神经元模型的净内部电位与四元数值输入信号的基本求和(线性)和径向基(非线性)操作的组合物一起开发。基于这些聚合函数的神经元模型确保更快的收敛、更好的训练和预测精度。这些神经元的学习和泛化能力通过各种三维变换和时间序列预测作为基准问题进行了验证。©2018计算设计与工程学会Elsevier的出版服务这是一个开放在CC BY-NC-ND许可证(http://creativecommons.org/licenses/by-nc-nd/4.0/)下访问文章1. 介绍神经网络的发展是神经计算研究者致力于高维信息处理以提高计算能力的重要领域。在这个方向上,传统的实值神经网络(RVNN)(McCulloch Pitts,1943)在复值神经网络中得到了推广(CVNN)(Nitta,1997,2000;Leung Haykin,1991; Benvenuto Piazza,1992; Hirose,2006;Tripathi,2015)三维向量值神经网络(3D-VVNN)(Nitta,2006; Tripathi Kalra,2011 a)和四元数值神经网络 ( QVNN ) ( Nitta , 1995; Arena , Caponetto , Muscato ,Xibilia,1996; Arena,Caponetto,Muscato,Xibilia,1997;松井、矶川、草道、佩珀、西村,2004年;峰本、矶川、西村、松井,2017年;宇张、图克,&由计算设计与工程学会负责进行同行评审。*通讯作者。电子邮件地址:sushil0402k5@gmail.com(S. Kumar),abkt. gmail.com(B.K. Tripathi)。Mandic,2011)分别针对复值(C)、3D向量和四元数值(H)信号的适应性和计算能力。这些扩展建立了一个简单而自然的神经网络三层结构,以实现计算能力,学习能力,更快的收敛速度和出色的精度。在复域中,由于与RVNN相比,更好的学习、更快的收敛和更好的泛化能力以及学习二维运动的能力作为其固有属性,扩展已经受到 了 很 多 研 究 兴 趣 ( Nitta , 1997 , 2000; Hirose , 2006;Tripathi,2015; Chen Li,2005)。另一个感兴趣的方向与神经元模型的结构改进有关,以实现更好的计算智能。在(Koch,1999;Mel,1995)中,提到神经元细胞的计算能力在于细胞体中突触权重与输入信号的在最近的出版物(Chaturvedi,Satsangi,Kalra,1999;Gupta Homma,2003; Tripathi Kalra,2011 b)中,还研究了基于非线性聚集的神经元模型比基于线性聚集的神经元(常规)具有更好的计算和学习能力这些研究促使我们提出了两个新的四元数域神经元模型,https://doi.org/10.1016/j.jcde.2018.04.0022288-4300/©2018计算设计与工程学会Elsevier的出版服务这是一个在CC BY-NC-ND许可证下的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。34S. Kumar,B.K.Tripathi/ Journal of Computational Design and Engineering 6(2019)33ð Þþð Þ11m;wLMM¼-¼MMMl¼1LMl¼1wlmql)和径向基(Vm 1/4e(Vm)LLMMMM0m的2m基于四元数值输入信号之间的线性和非线性聚合的组合。Hamilton ( Hamilton , 1853 ) 发 现 的 超 复 数 四 元 数(q<$ffiqi1<$qiI2q jI3q k)具有四个分量和嵌入其中的沿不同分量的相位信息。该数系统已被应用于理论和应用数学,特别是涉及三维旋转的计算,如计算机图形学、计算机视觉、晶体学纹理分析和机械设计。虽然四元数上的乘法运算不遵循交换性质,但智能的数学公式将使其在高维神经计算中得到最好的应用 以四元数作为信息流单元的神经网络以较少的神经元在高维中有效地学习和泛化(Nitta,1995; Arena等人,1996,1997; Minemoto等人, 2017年)。此外,最近开发了四元数域(H-BP)中的反向传播学习算法(Nitta,1995; Arena等人,1996,1997; Matsui等人,2004; Minemoto等人, 2017)使用误差梯度的概念-2. 人工神经元模型对于四元数值输入信号,四元数域中的两个新神经元模型的聚合操作(V)由线性(求和)和非线性(径向基)聚合函数与它们的比例(S:R)的组合来定义,其中S和R是四元数值补偿参数,其对求和和径向基函数的贡献进行分类以考虑所涉及的复杂性。为了实现鲁棒的聚合,这两个参数在训练期间都是自适应的。设q1,q2,.. . ,q,L是四元数值输入信号,其中L表示输入的数量,Y是输出,V是网络四元数中神经元的电位。设fH是四元数值激活函数,其中H表示一组四元数.让我们... . ,w是从输入到第m个常规CSU(Compen.饱和求和单元)(图1)或CPU(补偿产品单位)(图 2)基于聚集的神经元和wRB; wRB,. . ,其中RB是1m2m Lm下降优化,但它遭受其基本问题,如局部极小值和收敛速度慢因此,研究快速有效的学习算法是非常必要的,以克服反向传播算法的问题。为了捕捉四元数输入模式之间的非线性相关性,本文提出了两种新的基于补偿型聚集函数的四元数域神经元每个神经元的净电位由求和函数和径向基函数的加权贡献来表示。带求和神经元的多层感知器(MLP)用于输入输出映射的全局逼近,但收敛速度慢和易陷入局部极小是其两个主要缺点。另一方面,径向基函数(RBF)网络用于输入-输出映射的局部逼近,并且提供了更快和有效的学习,但是在常值函数逼近的情况下,它是低效的(Lee,Chung,Tsai,Chang,1999)。分析了MLP网络和RBF网络的优缺点,提出了四元数信号的补偿求和单元(CSU)和补偿乘积单元(CPU)集成函数的设计方法。CSU聚合是基于常规函数和RBF函数的补偿求和,而CPU在CSU聚合函数中包含了补偿常规函数和RBF函数的乘积各种基准测试问题证实了基于四元数域中的补偿聚集函数的拟议神经元模型的高功能性然而,由于使用了额外的参数,这些神经元在本质上是复杂的,但当需要更快的收敛速度和更好的精度时,它们会表现出色本文的其余部分组织如下:第2部分主要是从输入到第m个CSU或CPU神经元的径向基(RB)项的另一个四元数权重; m = 1,2,.. . 其中M是网络的隐藏层中的常规、CSU或CPU神经元的数量工作设w0和q0 1/1ijk分别为偏置及其在四元数中的输入,其中i、j和k是四元数的基本基本单位,在整个论文中用斜体粗体字母表示。 这些单位满足Hamilton规则(即i½jj¼kk¼iJk¼ -1;ij¼ -ji<$k;jk¼ -kii和i i i K j)(汉密尔顿,1853年),其中,符号表示四元数乘法,不满足交换性质(例如a b2.1. 四元数域常规神经元模型对于实值信号(McCulloch& Pitts,1943)、复值 信 号 ( Benvenuto &Piazza , 1992; Hirose , 2006; Leung&Haykin,1991;Nitta,1997; Nitta,2000; Tripathi,2015)和四元数域(Arena等人,1996; Matsui等人,2004; Nitta,1995)在三层神经网络中。在所有这三个域中,传统神经元的内部电位基于相应输入权重对的乘积之和在四元数域中具有偏置单元的第m个常规神经元的净电位(Vm)表示为:Vm¼VCΩw0mq0:101其中V C¼PL w sq湖传统神经元的输出(Ym)表示为:重点是两个建议的补偿神经元(CSU和CPU),四元数域及其体系结构。第3节提出了四元数反向传播(H-BP)学习算法,Ym¼fHVm:2网络与传统的(求和),CSU和CPU神经元。在第4节中,各种变换的学习是通过一条线来控制的,随后的泛化能力是通过复杂的几何结构来确认的。各种混沌时间序列2.2. 四元数域补偿求和单元(CSU)神经元的聚集函数(Vr)是由传统的在这一节中,也考虑了ies预测问题以证明其在高维应用中的适用性公司 简介RB-PLkq-wRBk2拟议工作的最终结论和未来范围见第5节。四元数函数及其贡献(Sm和Rm)值信号(ql),其中Sm和Rm是四元数域中第m个神经元的补偿参数,对传统求和函数和径向基函数的贡献进行在四元数域中具有偏置单元的第m个CSU神经元(图1)的净电位(Vr)定义为:1ffi;I1;I2和I3代表实分量和三个虚分量,i;j和k分别是四元数变量的基本单位Vr¼Vr1Vr2wqð3Þl¼1)aggrega-0S. Kumar,B.K.Tripathi/ Journal of Computational Design and Engineering 6(2019)3335M--MþþþMMMpMMMMMMMMMM嗯嗯嗯Fig. 1.四元数域中的CSU神经元模型。图二.四元数域CPU神经元模型。其中Vr1 ¼SmV C Vr2 V RB.CSU神经元的输出(Yr)定义为:YrfHVr:42.4.具有CSU或CPU神经元的多层神经网络的结构在本文中,结构的三层(L利用CSU构造了四元数域上的(MN)网2.3.四元数域补偿乘积单元(CPU)神经元(Vp)的聚集函数是通过包含常规的乘积来定义的。或隐藏层中的CPU神经元和输出层中的常规神经元,如图3所示,其中L表示四元数输入信号的数量,M和N分别表示隐藏和输出神经元的数量。的参数数量M公司 简介RB-PLkql-wRBk2三层(L-M-N)网络计算如下:(Vm<$l<$1wlmql)和径向基(Vm l)aggrega-M2L21NM1,其中2L(与控制相关的权重)四元数值信号(ql)的CSU神经元聚集函数及其贡献(Sm和Rm),其中Sm和Rm是四元数域中第m个神经元的补偿参数,它对传统求和函数和径向基函数的贡献进行了分类。第m层的净电势(Vp)在四元数域中具有偏置单元的CPU神经元(图2)被定义为Vp¼Vp1Vp2Vp3w0mq05其中,Vp1¼SmV C; Vp2 ¼ R m V RBand Vp3 ¼ Vp1Vp2。CPU神经元的输出(Yp)定义为:对于L个输入的常规和径向基聚合)2(对于补偿参数)1(对于偏置)和M1(对于偏置)分别是单个CSU/CPU(图1或图2)和常规神经元的参数数目。3. 学习规则文献中提出了四元数值神经元的各种激活函数。Nitta(1995),Arena et al. (1996 ) ,Minemoto et al. (2017 ) ,Ujang et al.( 2011年),Yp¼fHVm:6Kumar and Tripathi(2017),Kumar and Tripathi(2018),Kumarand Tripathi(in press)但这些激活函数是不规则的36S. Kumar,B.K.Tripathi/ Journal of Computational Design and Engineering 6(2019)33Hð Þð ÞX1½n nXn2ð ÞR¼ðÞ þð Þþð Þþð Þ--1m;wLM¼3Ikenf0IkVnKn2m1/4-。浏览次数:15@的。0@kujiang输出层中的第n个常规神经元的输出可以表示为Yn¼fH Vn:9四元数值激活函数(fH)的导数表示为:f0Vnf0ffiVnf0I1Vnif0I2Vnjf0I3Vnk10其中f0:表示f的导数 **用于前馈神经网络的基于梯度下降的误差反向传播学习方案已经在 四 元 数 域 中 扩 展 ( Arena 等 人 , 1996; Minemoto 等 人 ,2017;Nitta,1995)。设Dn为期望输出,则输出误差En表示为第n个输出神经元的期望输出(Dn)与实际输出(Yn)enDn-YnDn-YnI1Dn-I1YnI2 Dn-I2 Yn jI3 Dn-I3Ynk¼ffiðen ÞþI1 ðen ÞiþI2 ðen ÞjþI3 ðen Þk图三. MPL在隐藏层中具有CSU/CPU神经元。ð11Þ权重更新公式可以通过最小化实值均方误差(MSE)函数来推导,该函数表示为但在性质上是有界的,因为柯西-雷曼条件不适用于它(Tripathi,2015)。对于所提出的神经元,激活N伊伊伊2Nn¼13ð12Þ给出了四元数变量的函数fH_∞:H_∞的四维扩展1N1/2NðffiðenÞÞþX ik2o:一个实数激活函数f:函数f:应用于每个n1k¼1净势的实分量这一延伸,是一种...从分裂型复值激活函数fC:中导出,它是线性或非线性实激活函数的2-D扩展(Nitta,1997 2000; Hirose,2006; Tripathi Kalra,2011 b;Tripathi,2017)。在这个方向上,Kim和Adali(2003)也研究并解决了完全复值激活函数。文献中给出了各种线性或非线性的实激活函数,但对隐神经元和输出神经元分别考虑了非线性实双然而,实际激活函数以一般形式指定,其选择取决于预期应用。设VffiV I1V iI2V jI3V k,是四元数域中神经元的净内部电位,则神经元的输出定义为fHV fVf I 1 Vif I2 Vjf I3 Vk:7三层(LMN)可以构建网络结构在网络的隐藏层中具有传统的CSU或CPU神经元,在设q1,q2,.. . ,q L是输入信号,S、.....的问题。. ,w s是输入的权重通过递归地改变权重系数来最小化误差函数,w新的w旧的w旧的w旧的-grwE:1013其中wE表示误差函数(E)的四元数梯度,其从相对于四元数权重(w)的实分量和其他三个虚分量的偏导数计算。@E@E@ErwE¼@ffiw@I1wi@I2wj@I3wk:14然而,该误差函数的有效且准确的梯度可以使用自动微分(AD)技术而不是链式规则推导来计算(Neidinger,2010)。该技术自动计算函数的导数,无论函数多么复杂。牛顿文学到第m个常规的求和项,w RB;w RB、.....的问题。. ,w经常预算被1m2m Lm其他权值从输入到第m个补偿求和单元(CSU)或补偿乘积单元(CPU)神经元的径向基项; m = 1,2,... . ,M;Y为输出,V为净电势四元数域中的神经元 设S和R 是四元数值补偿参数,对求和和径向基聚合函数的贡献进行分类。设w1n;w2n 、.....的问题。. ,w Mn 是来自常规、CSU或CPU神经元到第m个常规神经元。设w和q为偏差和它的四元数输入。符号表示权重更新(Dw)与成本函数相对于四元数权重的负四元数梯度成比例,如下所示Dw¼-grwEg@ E@i@Ej@EkÞ@w@I1w@I2w@I3w对于将第m个隐藏神经元连接到第n输出神经元Hadamard乘积(Million,2007)。网络隐藏层中第m个传统、CSU或CPU四元数神经元的输出可以表示为E1V@ffiuwmn-Nffiuenfffiuvn@ffiuwmnX@IV)ð16ÞYm²f中文(简体)þ:Hk¼1@ffiuwmnS. Kumar,B.K.Tripathi/ Journal of Computational Design and Engineering 6(2019)33373¼¼公司简介XXMHIkenf0IkVn@IwNLMwmn3nM- 我...f0阿吉尔一、l¼1WLM2MN3MWLM3MWLM2ML.0L0@E1nn@Vn3.1. 四元数网络的权值更新规则@Itwmn-Nefv@Itwmn常规神经元X@IkVn)k¼1不MNÞð17Þ四元数值的传统神经元已经被在三层架构的隐藏层和输出层中使用现在替换Eqs。(16)和(17)在方程中。(15)简化后,我们得到:Dwmn¼gffienf0ffiVnrw 中文(简体)NMn3结构。隐输出权对的权更新规则该体系结构可以由等式2确定:(18)代入净内电位(V n¼PM1wmnYmw0nq0)。 计算这些梯度Xk¼1Ikenf0IkVnrwmnIkVng:ð18Þ如:rwmnm¼ffiðVnÞ¼Y¯m:ð28Þ对于将第l个输入连接到第m个hid的权重(w wlmden神经元,权值更新概念上从Eq. (18)作为NrwmnI1VniYm:29rwmnI2VnjYm:30Dwlm¼gXffienf0ffiVnrwffiVnrIVkY:31n13ð19Þ现在替换Eqs。 (28)-(31)在等式 (18)对于Dwmn和Dw0n,XIk简化后我们得到k¼1g0<$对 于 净 势 的 所 有 四 个 分 量 ( ffi<$Vn<$;I1<$Vn<$;I2<$Vn<$ 和I3<$Vn<$),所有这些分量相对于wlm的四元数梯度都是使用推导的链式法则推导出来的,并表示为rwlmffiVnffiwmnf0ffiVmrwlmffiVm-I1wmnf0I1VmrwlmI1VmDw mn¼Ne nf HV nY m:1000Dw0ngenf0Vnq0:333输入隐藏对的权重更新规则由等式导出。(24)支持Eqs。(25)-(27)在替换四分之一- 我...f0ð20Þ净内电位各部分离子梯度2MN2mwlm2M(V m) ¼PL WLM q0m q)。这些梯度计算如下:3MN3mwlm3Mrwlm Vm/q/l:1034rwlmI1Vnwmnf0I1VmrwlmI1Vm1MNMMrIViq:35阿吉·阿吉夫f0WLM1M L阿吉·阿吉夫f0ð21ÞrIVj:36— I3wmnf0I2VmrwlmI2Vm:rwlmI2Vnwmnf0I2VmrwlmI2Vm— I1wmnf0I3VmrwlmI3Vmð22ÞrwlmI3Vmkql:37现在替换Eqs。(34)-(37)在等式(24)简化后,I2DwlmG¼NfmGq'l:100rwlm I3Vnwmnf0I3VmrwlmI3VmDw0m<$Nfmq<$0:139mmI1— I2wmnf0I1VmrwlmI1VmI3wmnf0ffiVmrwlmffiVm:ð23Þ权重更新规则由等式(32)和(33)对于隐藏输出对和等式对于具有四元数域中的常规神经元的网络的输入隐藏对,可以使用公式(38)和(39)现在替换Eqs。(20)-(23)在等式(19)在四元数梯度简化后,我们得到:33.2. 隐层DwlmgffifmrwffiVmXIkfmrwIkVmg:24¼Nflm哪里NLMk¼1在一个三层网络中,所提出的CSU和四元数域中的常规类型神经元分别用于隐藏层和输出层(图11)。 3)。隐藏输出神经元对的权重更新规则与等式2中给出的相同ffifmf0ffiVmffidmn:25n1NItfmf0ItVmItdm;对于t1;2;3:226n1由于在网络的输出层中使用了传统的神经元,因此公式(32)和(33)中的神经元是不同的。输入-隐藏对的权值更新规则由等式导出。(24)支持Eqs。(25),(26)和(27)在替换的所有部分的四元数梯度,净内部电位(Vm¼Vr,如公式1所示(3)尊重每个对应的权重。 四元数梯度R r r rdmn<$w<$mnenf0Vn:27相对于w0m,<$Vm;I1<$V m;I2<$Vm和I3<$Vm计算如下:þ;对于t1/4; 2;3::38S. Kumar,B.K.Tripathi/ Journal of Computational Design and Engineering 6(2019)33RLMW0mr r2经常预算MMMMMM0mMMmrRmI3VmVmWLMMWLMMLSmI2VmrSmI2VmjVm:520mM0mMMMMWLMMWLMMMLLMLMMLMMLMMMRBLM不M不M不MLLMLMNMMMLMpp1p1p2M0米0米0米0米MmX嗯嗯嗯MMRBRBrwffiVrrwffiw0mq0q<$0:40rRI2VrRI2Vr2V RBj:160rwI1VrrwI1w0mq0iq<$0:41rRI3mVr2RBk:1061rwI2VrrwI2w0mq0j<$0:42现在替换Eqs。(58)-(61)在等式(24)对于Rm,我们简化rwI3VrrwI3w0mq0k<$0:43DRgVRBfr620米0米m/NMm:mÞ现在替换Eqs。(40)-(43)在Eq.(24)简化后,权重更新规则由等式(32)和(33)gr隐藏输出对和Eqs.(44)、(49)、(54)、(57)和(62)Dw0m<$Nfmq<$0:144mm四元数梯度的<$Vr;I1<$Vr;I2<$Vr和I3<$Vr与传统神经元的网络的输入隐藏对,输出层和四元数域中隐藏层的CSU神经元。嗯嗯嗯关于W S计算如下:俄.西 ffiðVrÞ¼rs ffiVr1'sq':450万3.3. 权重更新规则的网络与建议的四元数-隐层有值CPU神经元RWS I1Vrrws I1Vr1Smiql:46在一三层网络,的提出CPU和lmmlmm常规类型神经元为四元数值信号RWS I2Vrww I2Vr1Smjql:47分别用于隐藏层 和输出层(图 3)。由于lmmlmm到网络输出层中使用的传统神经元RWS I3VVrrws I3Vr1Smkql:48工作,隐藏输出神经元对的权重更新规则,lmmlmm与Eqs中给出的相同(32)和(33)。的权重更新规则现在替换Eqs。(45)-(48)在等式(24)简化后,G输入-隐藏对由等式(1)导出。(24)支持Eqs。(25),(26)和(27)在替代的四元数梯度,所有部件的净内部电位(Vm¼Vp),相对于相应的DWS ¼Sfrq<$:149pplmNm ml应答权重四元梯度的Vm;I1Vr的四元数梯度VrVrvr相对于w0m的I2<$Vp<$和I3<$Vp<$计算如下:ffim;I1m;I2mI3米相对于S,m计算为:rSffiVrrSffiVr1VC:50VRw 免费下载ffiðw0 mq0Þ¼q¯0:ð6 3Þp′嗯嗯嗯rw0mI1Vmrw0mI1w0mq0iq0:64rSI1VrVrSI1Vr1VC:151RwI2Vp?rwI2w0mq0j<$0:65嗯嗯嗯r1C0米0米RwI3Vp?rwI3w0 mq0kq<$0:6 6rSI3伏rSI3伏r1伏kVC:153伏现在替换Eqs。 (63)-(66)在Eq. (24)对于w0m嗯嗯嗯Dw:1067mm现在替换Eqs。(50)-(53)中的等式(24)对于Sm我们得到0mNm0简化后<$Vp <$;I1<$Vp <$;I2<$Vp<$和I3<$Vp<$的四元数梯度grC关于W S 使用链式推导规则推导为:DSm¼ NfmVm:1000LMp p1p1p2RWS FfiVmrws ffiVmrwsffiVm VmLMLMLM<$Vr;I <$Vr;I <$Vr和I <$Vr的四元梯度ð68ÞM1M2M3MLMSmqlSmVp2qlSmm1Vp2 ql:关于w,RB计算为:rRBffiVrrRBffiVr22ffiRmVRBq-wRB:55rwsI1VP/VW I1Vp1rws I1Vp1Vp2SmiqllSmiVp2qlSmi1Vp2ql:rIVr rIVr22IRM m1995年 q-w Þ对于t1/4;2;3:156磅啪啪啪啪RWS I2VmVrws I2V1rws I2V1V2再次替换Eqs。(55)和(56)在方程中。(24)我们得到lmlmm嗯嗯简化后DwRB¼2gVRBfk¼1IkfrIkRmgql-wRB:57SmjqlSmjVp2qlSmj1Vp2ql:ð70ÞRWS I3伏电压m/w I3Vmrws I3VmVm四元数梯度的<$Vr;I1<$Vr;I2<$Vr和I3<$Vr相对于Rm计算为:LM联系我们LMmklSmLMkVp2q<$l<$Smk1Vp2ql:ð71ÞrRmffiVmVmVm:58r rRBMM现在替换Eqs。(68)-(71)在等式(二十四)DWS 1/4g<$Smfp1Vp2q<$l:7 2rRI1VV2Vi:1000lmNm mW30m0mMRBLMMð69ÞMMMMMRRS. Kumar,B.K.Tripathi/ Journal of Computational Design and Engineering 6(2019)3339Cp2CpC2Cp2CpC2Cp2CpC2LMRBp1RBMMMMMMMMMMLMMLMMMIkfpIkRmIkVp1Rmgql-wRBMMMMRmMRmMRmMMMMMMMMM嗯嗯MlmNMm¼ V1¼ V1嗯嗯(Sf),然后是距离为kbk ¼的平移四元数梯度为<$Vp <$;I1<$Vp <$;I2<$Vp<$和I3<$Vp <$4。基于CSU和CPU神经元的性能分析关于S,m使用推导的链式规则推导为:p p1p1p2rSmffiVmrSmffiVmrSmffiVm Vm¼V1995年V2001伏第五章:ð73Þ从3D几何变换的基准问题; 3D和4D时间序列预测与四分之一,嗯嗯p p1M mp1p2提出了一种三层网络的非离子反向传播(H-BP按补偿性总和单位计算的工作,或rSmI1VmrSmI1VmrSmI1Vm Vm1/4iV 吉吉VV1/4i2011年1月 第五章:ð74Þ在这个模型中,考虑了隐藏层的补偿乘积单元(CPU)神经元和输出层的常规神经元M mp p1嗯嗯p1p2科.通过不同的统计参数,如均方误差(MSE),误差方差,平均方差,性能评估,rSmI2VmrSmI2VmrSmI2Vm Vm^jV 拉吉VV^j2011年1月第五章:ð75ÞAkaike信息准则(AIC)(Fogel,1991)和预测增益(PG)(Ujang等人,2011; Popa,2016)。MSE值较小M mp p1嗯嗯p1p2和误差方差和较大的值AIC和PG的所有实验揭示了更好的准确性比传统的神经元在四分之一,rSmI3VmrSmI3VmrSmI3Vm VmCp2Cp2Cð76Þ离子域千分之一VmkVMVM 千分之一1000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 最大值m:现在替换Eqs。(73)-(76)在等式 (24)对于SmDSm¼gfp1Vp2VC:77<$Vp <$;I1<$Vp <$;I2<$Vp<$和I3<$Vp<$的四元数梯度关于w,RB使用推导的链式规则推导为:rwRBffiVprwRBffiVp2rwRBffiVp1Vp21/2 V ðffiðRÞþffiðVRq-wRB:784.1. 3D中的几何变换几何变换如平移、旋转、缩放及其组合在高维图像处理应用中传达了主要的几何特征。空间中的输入-输出映射保持定向表面之间的角度,并且在运动或变换的学习和泛化期间也保持每个数据点的相位。每个四元数变量qi<$0xii yij zik嗯嗯p pmllmp p通过训练的网络进行变换(T),相应地产生变换后的四元数变量rwRBItVmrwRBItV2rwRBItV1V2如下所示嗯嗯RB嗯嗯p1ð79Þ¼2 VmItR mItVmRmql-wlm:q0S. aqia对于i/1; 2; 3;.. . 产品编号:186我其中,t1; 2; 3.现在替换Eqs。(78)和(79)在方程。(24)ifkakpRBLMDwRB¼2gVRBffifpffiRmffiVp1RmXþMMð80Þ其中函数T产生不同的变换,并且np表示位于3D对象的表面上的点的数量。的四元一是表示通过的极坐标形式其中n^是单位向量,jhj<2p。<$Vp <$;I1<$Vp <$;I2<$Vp<$和I3<$Vp<$的四元数梯度关于R,m使用推导的链式规则推导为:qffib2P3Ikb2(norm的四元数)和h弧度R 免费的ffiVp2rffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffff本节中提供了各种模拟以供学习以及3D变换或运动解释的泛化。这些模拟显示出了M m四元神经元网络,因为的泛化的3DrRI1Vp rRI1Vp2r RI1Vp1Vp2对象是不可能的实数或复值神经网络-嗯嗯嗯p1RB嗯嗯ð82Þ如Minemoto et al. ( 2017年)。由于四元数¼Vm1Vmi:rRmI2Vp rRmI2Vp2r RmI2Vp1Vp2经常预算p1是这个神经网络的学习单元,因此相位信息是空间中每个点的位置在学习和生成期间被保留。变换的不同组合便于从不同的方向查看3D对象,对计算机图形学和智能控制系统设计有很高的要求rRmI3Vp rRmI3Vp2r RmI3Vp1Vp2经常预算p1MM用四元数反向传播(H-BP)算法训练的网络具有学习3D变换或三维运动通过一小部分点躺在一条线上,甚至-现在替换Eqs。(81)-(84)在等式 (24)对于RmDRm¼gVRB1Vp1fp:85权重更新规则由等式(32)和(33)对于隐藏输出对和等式(67)、(72)、(77)、(80)和(85)对于在四元数域中具有在输出层的常规神经元和在隐藏层的CPU神经元的网络的W3LM变换后的四元数qi由比例因子得到k¼1LMk¼1从输入四元数(q)绕单位向量(n ^)旋转。40S. Kumar,B.K.Tripathi/ Journal of Computational Design and Engineering 6(2019)33最 终 将 其 推 广 到 空 间 中 的 复 杂 物 体 上 。 此 外 , Minemoto 等 人(2017)提出了线性变换的学习和泛化,其中通过位于平面上的点集进行训练,但由于表面上点的几何分布,平面与直线相比包含更多特征。利用直线进行训练,系统表现出比平面更好的智能行为.作为一个基准问题,本节介绍了变换(旋转、缩放和平移及其S. Kumar,B.K.Tripathi/ Journal of Computational Design and Engineering 6(2019)3341----组合)通过H-BP算法的网络与传统的,CSU,或CPU神经元在四元数域在隐藏层和传统的神经元在输出层。通过不同的统计参数,比较了它们对复杂三维几何结构(球面、柱面和环面)的泛化能力一个三层(2M 2)网络经历一个学习过程,用于在3D空间中包含少量点(21个数据点)以及参考点(线的(0,0,0)中间)的直线上进行输入-输出映射,其中网络由两个输入、M个隐藏神经元(常规、CSU或CPU)和输出层的两个常规神经元(用于四元数值信号)组成。输入-输出映射,如在Eq. 公式(86)用于三个变换;以因子1/2缩放,随后在正z方向上进行0.3单位平移通过以因子1/2和围绕单位vec的p/2 rad旋转进行缩放tor(i)之后是缩放因子1/2和在正z方向上的0.3单位平移,分别如图4(a)、(b)和(c)所示。一条直线上的所有3D点及其参考点被视为虚四元数(实部保持接近零),用于所有三个变换。在该网络中,第一输入接收位于直线上的一组点,第二输入通过参考点。对象的参考点的并入提供了更多的信息来学习系统,并且产生了在每次变换的实验期间观察到的更好的精度。对于所有的变换,构造了三个2M2网络:第一个在隐层用常规神经元,第二个用CSU神经元,第三个用CPU神经元,三个网络的输出层都用常规神经元.所有网络的训练过程都是通过H-BP学习算法分别进行的图四、直线的输入-输出映射,其中(a)缩放因子1/2,(b)缩放因子1/2和在正z方向上的0.3单位平移,以及(c)缩放因子1/2,在正z方向上的0.3单位平移,以及围绕单位向量(i)的p/2 rad旋转42S. Kumar,B.K.Tripathi/ Journal of Computational Design and Engineering 6(2019)33¼-101与传统的神经元网络相比,使用CSU或CPU神经元的网络训练需要更少的隐层神经元、更少的参数和更少的训练周期(平均历元)来达到类似的训练均方误差(MSE),并且训练后的网络的测试已经通过复杂的三维几何对象(如球体)进行了验证(4141个数据点)、圆柱体(2929个数据点)和圆环体(10,201个数据点),并基于不同统计参数进行比较分析:检验MSE、方差、相关性、AIC和PG,如表1-3所示。在测试过程中,每个结构的巨大数据点都被有意考虑,以评估训练后网络的智能行为。为了描述泛化能力,通过H-BP算法对具有CSU神经元或CPU神经元的训练网络在不同的3D对象上的测试结果在图1和图2中示出。图5和图6用于缩放变换,图图7和图8用于缩放&平移变换,9和10分别进行缩放、平移&和旋转变换。表格还呈现了具有CPU神经元的网络的训练和测试,其在如表1表1缩放转换的训练和测试性能比较(缩放因子½)。表3缩放、平移和旋转的训练和测试性能比较。气缸-5.4205-5.892-6.2834环面-3.9339-4.4211-4.8993PG球6.71 7.27 7.55气缸7.53 7.96 8.83环5.67 6.38 7.024.2. 基于虚四元数4.2.1. 蔡氏蔡&在蔡氏电路中DX[dt<$a½y-x-hx]dy气缸-5.7819-6.0419-6.327环形-4.3310-4.8223-5.2472PG球7.23 7.58 7.76dt<$x-yzdzdt¼ -by-cz:哪里ð87Þ气缸8.91 9.22 9.56环6.02 6.51 6.82高x宽x宽x高1m-mjx1j- jx-1j:88表2缩放和平移的训练和测试性能比较H型常规CSU CPU中的神经元类型网络拓扑2-6-2 2-2-2
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- 藏经阁-应用多活技术白皮书-40.pdf
- 藏经阁-阿里云计算巢加速器:让优秀的软件生于云、长于云-90.pdf
- 藏经阁-玩转AIGC与应用部署-92.pdf
- 藏经阁-程序员面试宝典-193.pdf
- 藏经阁-Hologres 一站式实时数仓客户案例集-223.pdf
- 藏经阁-一站式结构化数据存储Tablestore实战手册-206.pdf
- 藏经阁-阿里云产品九月刊-223.pdf
- 藏经阁-2023云原生实战案例集-179.pdf
- 藏经阁-Nacos架构&原理-326.pdf
- ZTE电联中频一张网配置指导书
- 企业级数据治理之数据安全追溯
- MISRA-C 2012-中文翻译版.pdf
- 藏经阁-《多媒体行业质量成本优化及容灾方案白皮书》-37.pdf
- 藏经阁-浅谈阿里云通用产品线Serverless的小小演化史-23.pdf
- 藏经阁-冬季实战营第一期:从零到一上手玩转云服务器-44.pdf
- 藏经阁-云上自动化运维宝典-248.pdf
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功