没有合适的资源?快使用搜索试试~ 我知道了~
智能系统与应用18(2023)200211基于自然DBN的图像去噪优化技术Rini Smita Thakur*,#,Shubhojeet Chatterjee#,Ram Narayan Yadav,Lalita GuptaMaulana Azad National Institute of Technology,Bhopal,Madhya Pradesh,印度A R T I C L EI N FO保留字:图像去噪深度信念网络粒子群优化鲸鱼优化A B S T R A C T鲸鱼优化算法(WOA)和粒子群优化算法(PSO)是用于解决各种工程优化问题的启发式技术。在本文中,这些算法已经与相对较少探索的深度学习模型结合使用,即,深度信念网络(DBN)用于高斯去噪。 DBN是堆叠的受限玻尔兹曼机(RBM),其典型的架构特征通过降低训练复杂度使深度学习变得可行。给出了三种网络MWOA-DBN、WOA-DBN和PSO-DBN对加性高斯白噪声(AWGN)图像的去噪结果。超级参数(步长比和辍学率)优化使用MWOA,WOA,和PSO与均方根误差作为适应度函数,以避免过拟合。收敛的适应度函数的性质进行测试的变化,在步骤比,和辍学率。去噪方法的性能进行测试的基准指标,如峰值信噪比(PSNR),结构相似性(SSIM),和均方根误差(RMSE)。据观察,所提出的方法的性能优于国家的最先进的图像去噪技术。1. 介绍图像去噪从噪声图像中提取干净的图像。它在许多现实生活应用中起着至关重要的作用,这些应用涉及对来自不同成像模态的生物医 学 图 像 进 行 降 噪 ( Mei-niel 等 人 , 2018 ) ( Singha 等 人 ,2021)、高光谱图像(Rasti等人, 2018年),遥感图像(Masse等人,2018)和模糊图像(Lan等人,2013年)。它被用作不同计算机视觉过程中的预处理步骤,如图像分割、分类、模式识别和水印去除。高斯噪声、泊松噪声、均匀噪声、脉冲噪声、Gamma噪声、瑞利噪声、混合噪声等都可能对图像造成破坏。高斯噪声具有统计性质,其概率分布函数服从正态分布。它是相机传感器中的电子噪声的形式,由于温度和照明波动,并在图像采集,压缩和传输过程中发生。一般的加性高斯白噪声(AWGN)模型由下式给出:以下等式:y=x+v(1)其中y <$RN表示高斯噪声损坏的图像,x <$RN表示表示原始干净图像,v表示图像中的残余高斯残差噪声(v<$N(0,δ2I))遵循均值为零的正态分布,协方差矩阵为Xδ2I。图像去噪方法的广泛分类包括基于空间域的方法、基于变换域的方法、基于形态学的方法、基于模糊滞后平滑的方法和基于机器学习的方法(Fan等人,2019年)。由于面向应用的大型图像数据集的可用性以及图形处理单元(GPU)的计算能力的增加,基于机器学习的方法变得流行。基于机器学习模型的图像去噪网络是卷积神经网络(CNN)(Thakur 等 人, 2019 ) (Thakur 等 人 , 2021 ) 、 生 成 对 抗网 络(GAN)(Zhong等人,2020),深度信念网络(Keyvanrad等人,n.d. )、去噪自动编码器(Gondara,2016)以及将神经网络与传统图像/信号去噪方法相结合的混合模型(Cruz等人,2018),(Wang等人, 2018),(Lefkimmiatis,2018),(Chatterjee等人, 2022年)。最近,基于CNN的机器学习网络被广泛用于图像恢复应用(Chatterjee等人,2020年)。突破网络是基于残差学习和批量归一化的高斯去噪器(DnCNN),它为许多* 通讯作者。电子邮件地址:rinithakur66@gmail.com(R.S. Thakur),shubhojeet28@gmail.com(S. Chatterjee),rnyadav@gmail.com(R.N. Yadav),gupta.gmail.com(L.Gupta)。Shubhojeet Chatterjee和Rini Smita Thakur是共同第一作者。https://doi.org/10.1016/j.iswa.2023.200211接收日期:2022年3月16日;接收日期:2023年2月11日;接受日期:2023年3月2日2023年3月8日网上发售2667-3053/© 2023作者。由Elsevier Ltd.发布。这是CC BY-NC-ND许可证下的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。可在ScienceDirect上获得目录列表智能系统及其应用杂志主页:www.journals.elsevier.com/intelligent-systems-with-applicationsR.S. Thakur等人智能系统与应用18(2023)2002112其他变种(K. Zhang,Zuo,Member,et al., 2017年)。 其他流行的CNN去噪器是IDCNN(F。Zhang等人,2018),McDnCNN(Jiang等人, 2018),FFDNet(K. Zhang等人,2018)、SCNN(Isogawa等人,2018)、PDNN(Dong等人,2019)、NN3D(Cruz等人,2018)和ECDNet(Tianet al.,2019年)。近年来,基于卷积神经网络的图像去噪器的性能优于其他最先进的方法(Thakur等人,2019年)。大多数基于CNN的去噪器使用具有反向传播的随机梯度下降(SGD)然而,在一定深度之后,CNN去噪器在去噪中达到饱和,因为传播误差随着网络深度的增加而达到零值,从而限制了初始层权重更新(Bengio等人,2009年)。此外,CNN的监督学习由于大的训练数据集大小和图像特征而变得对计算要求很高(Rizk等人,2019年)。为了克服这些问题,Hinton等人(Hinton等人, 2006)设计了基于生成学习的分层深度信念网络(DBN),其中包含多层随机潜在变量。它结合了无监督学习,然后进行微调和监督学习。DBN使用受限玻尔兹曼机(RBM)具有用于数据表示的可见单元和通过学习数据中的高阶相关性来提取特征的隐藏单元。在RBM中,可见单元和隐藏单元之间存在层内连接,而没有层间连接。RBM简单的两层结构降低了DBN网络的训练复杂度。重复的RBM单元被单独训练,前一个RBM的输出被输入到下一个单元。然而,反向传播训练在DBN的情况下由于其架构方面而失败,因为它需要标记的训练数据,并且在具有多个隐藏层的网络中非常慢。 它也容易陷入糟糕的局部最优。用于DBN的无监督预训练的学习算法涉及堆叠,以贪婪的方式一次学习各个层通过将一个RBM的隐藏状态视为用于训练下一个RBM的可见数据,可以学习许多表示层。每个RBM将其数据分布转换为其隐藏单元的聚合后验分布。这将建模分为两个任务:1.学习生成权重,所述生成权重可以将所述隐藏单元上的所述聚合后验分布转换回所述数据分布。2.学习对隐藏单元上的聚合后验分布进行建模有助于形成更好的生成模型,这些模型可以进行微调,以便一次只学习一层Greatest。这被称为“预训练”,它找到了一个可以微调的良好的初始权重集。这里,反向传播用于微调模型以获得更好的区分,这克服了标准反向传播的许多限制。一般来说,深度网络是使用无监督的在使用标记数据之前进行学习,以通过监督学习来改进模型。 该方案几乎总是优于在没有预训练的情况下学习的网络[23],因为该阶段充当正则化器[24](Erhan等人,2009)并为监督优化问题提供帮助(Bengio等人, 2006年)。因此,在此之后,DBN的训练分两个阶段进行首先,RBM的训练在一个无监督的方式与对比度发散过程,预测对数似然梯度的帮助下,吉布斯采样步骤。其次,最优权值的计算涉及到由联合概率能量函数构成的目标函数的最大化。然后进行监督训练或使用反向传播算法进行微调启发式算法用于优化辍学率和学习率,因为与反向传播相比,它们需要较少的计算量(Gudise Venayagamoorthy,2003&)。启发式算法通过对候选解的迭代改进,在给定的质量度量下找到可行解。在(J. R. Zhang等人, 2007),一种混合粒子群优化和反向传播的前馈神经网络训练方法在收敛速度和精度上都有了显著的提高。在这项工作中,超参数的深度信念网络的辍学率优化的启发式算法。优化超参数,如辍学和学习速率可以提高DBN和CNN的性能。Dropout是一个正则化参数,在每次迭代时随机忽略特征子集(Wagar等人, 2013年)。这是一种非常有效的使用神经网络进行模型平均的方法,并且可以在合理的时间内训练不同的网络此外,SGD中的学习速率和迭代计数的不适当选择导致网络中的收敛问题,从而导致精度差异(Sun等人,2019年)。因此,在通过反向传播进行微调之前,通过启发式算法选择DBN的超参数提高了DBN的性能。鲸鱼优化算法(WOA)(Mirjalili Lewis,2016&)和粒子群优化(PSO)(Kennedy Eberhart,1995&)是元启发式,基于群的算法,用于各种混合图像恢复过程中的优化。在[31]中,WOA用于自适应小波变换的图像去噪。作者在(L。Zhang等人,2020),(Zhou等人,2020),(C. J. Zhang &Nie,2019)使用WOA来优化CNN的权重和偏差,以解决图像处理问题。然而,当噪声水平较高时,通过避免过拟合可以进一步提高优化网络的性能。工作贡献:基于文献中使用的先前方法,并考虑到当前的研究空白,本文提供以下主要贡献。设 计 了 PSO-DBN 、 WOA-DBN 和 MWOA-DBN , 并 通 过 PSO 、WOA、MWOA优化DBN的步长比和丢失率,以消除AWGN引起的图像噪声。计算所有测试图像的不同图像质量评估指标在高斯噪声水平15,25和50下,所提出的方法与其他去噪技术的PSNR值的比较分析。所提出的去噪技术的时间复杂度分析。收敛的适应度函数(RMSE)的步长比和辍学率的变化进行了测试。本文将DBN与自然启发算法相结合,设计了PSO-DBN、WOA-DBN和改进的WOADBN(MWOA-DBN)。两个重要的训练超参数的优化,即,步长比和丢失率对于避免过拟合并因此提供更好的去噪性能起重要作用。本文的其余部分组织如下。下一节概述了这项工作。第3节介绍了所提出的算法的细节,即,基于MWOA、WOA和PSO的图像去噪方法。第4节讨论了所提出的算法的结果进行了比较分析,第5总结了论文。2. 拟议方法在本文中,三个自然启发的算法,即,已经提出了WOA-DBN、PSO-DBN和MWOA-DBN用于高斯去噪。深度信念网络是一种特殊的深度神经网络,它是一种用于特征表示和提取的分层生成模型。它在机器学习中有着广泛的应用,其中图像去噪是一个重要的应用。DBN是由限制玻尔兹曼机(RBM)构成的,它们构成了DBN的构建块。鲸鱼优化是一种受自然启发的元启发式优化算法(Mirjalili Lewis,2016&),它基于三种不同的捕鲸策略,即,包围猎物、泡网摄食(开发阶段)和寻找猎物(探索阶段)。鸟类和鱼类的群体智慧帮助开发了一种称为粒子群优化的元启发式算法(SeiX asGomes de Almeida Coppo Leite,2019&)。只有当鸟群的成员能够在它们之间共享信息以确保同步以导致在不同的点和时间着陆时,鸟群的运动才是可能的。它需要根据对不同变量的细致评估来优化着陆地点,这些变量包括纬度、经度、捕食者风险和其他决定着陆地点的生存标准。·····R.S. Thakur等人智能系统与应用18(2023)2002113D=Cl-s1j ij关于我们.)的。.))[-][-]||≤()下一页()下一页(t)(t)()下一页∑v,h∑| |、..)的。))D=Cr-s1j ij[][]Vi=1Hj=1Vi=1Hj=1我J着陆点的适应性这些优化算法与深度信念网相结合,生成一个微调的网络,以避免使用适当的辍学和有效的学习率过度拟合。深度网络提出了一个合适的权重初始化问题。在具有多个隐藏层的非线性深度网络中优化权重是困难的,并且计算成本很高。 为了解决这个问题,Hinton等人(Hinton等人,2006)提出了一种基于RBM序列训练的算法。对于具有多个隐藏层的DBN,训练多个RBM,它们彼此堆叠。这种逐层算法有助于获得DBN的隐藏权重和偏置的良好初始化。这之后是微调DBN,尊重 到 典型监督条件 像 均方误差或由于大量可能的关节(V,H)配置而难以处理3.1.2. 鲸鱼优化算法鲸鱼优化是一种受自然启发的元启发式优化算法(Mirjalili Lewis,2016&),它基于座头鲸采用的三种不同的捕鲸策略3.1.2.1. 包围猎物。座头鲸可以用它们的捕猎技巧来识别猎物。领导座头鲸的位置是目标猎物的假设位置或接近最佳位置。他们对领导人的立场更新如下:交叉熵(t)(t)sij(t+1)=llj(t)-AD(七)3. 该方法3.1. 拟议的图像去噪器的组成单元3.1.1. 深度信念网络的结构其中t是当前迭代,[l1j]1n是领导位置,[sij]mn是搜索代理位置,n是位置的坐标数,m是搜索代理的数量,C和A是如下定义的系数:在这项工作中使用的DBN由功能单元称为RBM。RBM(Rumelhart等人,1986年),(Hinton,2002年)是马尔可夫随机场(MRF)的一个版本,具有2层结构设计。一A=a(2r1-1)C=2r2(八)层是可见的(v),具有p个可见单元,另一层是隐藏的(h),具有q个隐藏单元,没有层内接触。为了捕捉数据之间的不同依赖关系的可见特征,RBM引入了隐变量.每个单元的状态可以是0或1。θa、b、W是模型参数:a<$Rp和b<$Rq是偏差可见层和隐藏层的向量以及权重矩阵XW<$Rp<$q是成对可见-隐藏单元的边权重。条件分布为:其中,r1和r2是[0, 1],并且a在该过程中从2线性地减小到0迭代的过程。领导者和搜索代理位置是训练超参数的顺序对,即,升学率和辍学率。3.1.2.2. 气泡网攻击(开发阶段)。有两种机制定义了泡沫网络攻击策略:收缩包围机制:在该机制中,a的值为Ph j= 1 |v = σ b j+ vTWpjP(v i= 1 |h)= σ a i+W i<$qh(二)从2下降到0,这导致A的波动范围减小,因为Aa,a.设置A=1,1(A1),搜索代理的位置可以在其当前位置和位置之间更新其 中 σ 。 sigmoid 激 活 函 数 能 量 ( Hopfield , 1982 ) 与 RBM(Harmonium(Smolensky,1986))中可见单元和隐藏单元之间的联合配置v,h相关:E(v,h)=-∑aivi-∑bjhj-∑vi∑hjwi,j(3)领导者的责任螺旋更新机制:在这种机制中,计算搜索代理的当前位置与领导者的位置之间的距离。然后建立一个螺旋方程,根据座头鲸的螺旋攻击动作来其中v、h是可见单元i和隐藏单元j的二进制状态,Dist=1001j-sijsij(t+1)=Disteblcos(2πl)+l1j(t)(九)分别ai和bj是它们各自的偏置,wi,j是权重分配给它们之间的连接。每对v,h都被分配了一个概率,如(Hinton,2012):e-E(v,h)其中b=l,t表示当前迭代,并且l=r(ar[0, 1],Dist是搜索‘p(v,h)=e-E(v,h)代理和领导者的代理,并且a在迭代过程l1j(t)和sij(t)与前面相同是网络分配v的概率通过对所有可能的隐藏向量求和p(v,h)值得注意的是,座头鲸同时表现出上述两种机制。pv∑he-E(v,h)(五)3.1.2.3. 搜索 为 猎物 (勘探 阶段)。 驼背 鲸鱼也()=v,he-E (v,h)通过在训练数据的对数概率中执行随机最陡上升的学习规则被示出(Hinton,2012):1998年,随机搜索猎物在这种机制中,鲸鱼根据彼此的位置在这里,与开发阶段,A>1,即,大于1的随机值,小于-1用于强制搜索代理远离(见附件一)v))=E数据。vihj)-E模型。(vihj)参考鲸鱼搜索代理的位置根据随机选择鲸鱼的位置来执行全局搜索。Δ wi,j= vihj -E型号vihjΔai=Δ bj=E数据。hj)-E模型。h(j))(六)然后,更新方程可以如下所示(t)(t)sij(t+1)=r1j(t)-AD(十)(四鲸鱼:R.S. Thakur等人智能系统与应用18(2023)2002114()()其中E数据。E模型。是训练输入数据和理论RBM模型指定的分布下的期望值。其中,k是学习率。虽然计算E数据(vi hj)很容易,但E模型(vi hj)其中,r1j1n是领导位置,而sijmn是搜索代理位置。C和A与(8)中相同该方法使用上述更新方程来完善训练参数。当量(17) 解释R.S. Thakur等人智能系统与应用18(2023)2002115̃(0)(0)⃒⃒(it+1)我i=1j=12个。电子邮件*=DBN(X)∑∑[()-()][()-()]i=1j=1i=1j=∑∑i=1J1∑∑MN̂̃=()i=1j=1∑∑∑∑低上不、 、、、、、CD、 ,t,i=1j=1i=1j=1i=1j=1i=1j=1[n(i,j)-x(i,j)]i=1j=图1.一、 DBN培训流程框图。算法1基于DBN的WOA/MWOA自然图像去噪。1. 输入:m,n,S =0,S=1,N,X,P,={(XX)j=12算法2基于DBN的粒子群算法用于自然图像去噪。1. 输入:p,n,Slower=0,Supper=1,N,X,Pt,N={(X,X),j=1,2,2. 设置:S=[Slower,Supper],其中S是搜索域3. 初始化:xi∈S,vi∈ [-|S上-S下,|S上-S下]4. 计算:f(x(i0)),其中f(. )是适应度函数5. 集合:gbx(0)=x(i0)s。t. f(x(i0))最小集合:pbx(i0)=x(i0)6. 迭代次数:Niterwhile(tNiter) 1)D= |Cr 1 j(t)-sij(t)|sij(t+1)=r 1 j(t)-AD如果2结束否则,如果1(p ≥ 0. 第五章)Dist= |l 1 j(t)-sij(t)|sij(t+1)=Disteblcos( 2πl)+l1j(t)如果1结束端10. 设置线性映射:DBNlinear-mapped=setLinearMapping(DBNpre-trained,N,N)11. 训练:DBN训练=预训练BP(DBN线性映射,P t,N)培训阶段结束训练13.输出:X表1性能指标的数学描述。图像质量测量数学描述相关系数(β)M N1x i,j x i,j y i,j y i,j√̅∑̅M∑̅N̅[̅x̅(̅i,̅j)̅-x(̅i ,j )]̅2̅∗̅[̅y(̅i,j)-̅̅y(̅i,j)]2确保:sij(t+1)∈SIJSNR∑M ∑N[y(i,j)]2计算:f(s(t+1))∑M ∑N [x(i,j)-y(i,j)]2集合:l 1 j(t+1)= sij(t+1)s。t. f(sij(t+1))最小t=t+1归一化互相关(NK)M N1xy∑M ∑Nx2end while培训阶段开始7. DBN i = rdbn(N),其中rdbn(. )是随机DBN生成函数均方误差(MSE)峰值信噪比(PSNR)√̅∑̅M∑N̅= ̅[̅x̅(̅i,̅j)̅-̅y̅ (i, j)̅]̅2门8. 更新:Pt=concat(P t,l1 j(t+1))预先训练的机器人我10log10(max(x))2MSE9. 预培训:DBN=预训练CD(DBN,X,Pt,N)平均绝对误差(MAE)∑M ∑N[x(i,j)-y(i,j)]10. 设置线性映射:DBNlinear-mapped=setLinearMapping(DBNpre-trained,N,N)11. 训练:DBN训练=预训练BP(DBN线性映射,Pt,N)i=1j=1图像增强因子(IEF)MN212. XDBNX∑M∑N[y(i,j)-x(i,j)]2训练结构相似性(SSIM)i=1j=1(2xy+C1)(2σXY+C2)13. 输出:X更新机制是这三个过程中的一个混合过程,即,(μx2+μy2+C1)(σx2+σy2+C2)结构含量(SC)MN[y(i,j)]2∑M ∑N1[x(i,j)]2培训阶段结束R.S. Thakur等人智能系统与应用18(2023)2002116i=1j=i=1j=1i=1j=1N2猎物的包围、利用阶段和探索阶段。 对于MWOA,已经对WOA进行了修改,如(18)中所示再-相关质量(CQ)M N1x(i,j)y(i,j)∑M ∑Nx(i,j)A,C,r1,r2的位置已经被确定。图像保真度(IF)1(∑M∑N[x(i,j)-y(i,j)]2)∑M ∑[x(i,j)]3.1.3. 粒子群优化鸟类和鱼类的群体智能帮助开发了一种称为粒子群优化的Meta启发式算法(SeiX as Gomesde Almeida Coppo Leite,2019&)。只有当鸟群的成员能够分享i=1j=1它们之间的信息以确保同步,从而导致在不同的点和时间着陆。需要根据对不同变量的细致评估,如纬度,-R.S. Thakur等人智能系统与应用18(2023)2002117关于我们()下一页=[ ](t)v=viji1n∗(一)|)的情况下(|)∂θ∂θ∂θ=-,v(0)公司简介ph|中文(简ph|v(k)图二、 用于测试所提出方法的测试数据集。表2不同图像大小的流行去噪方法在CPU上的运行时间方法256× 512× 1024×第i个粒子返回到目前为止的最佳位置,直到找到新的粒子。C2是衡量群体全局学习重要性的社会学习参数。R1和R2避免了过早收敛。在GA-PSO框架中,遗传算法(GA)被用来构造样本,特别是遗传算子,交叉,变异和选择的帮助。常规PSO跟随GA样本生成以进行粒子更新。GL-PSO提高了可扩展性、全局搜索能力、搜索速度和解决方案的准确性(Gong等人, 2016年)。x代表方法中辍学率和学习率的向量。使用的适应度函数是RMSE。3.2. 深度信念网络的训练DBN的训练分三个步骤进行:对比发散(CD)以预训练DBN,反向传播(BP)以进一步对其进行微调,以及降低DBN中最后一层噪声节点的活动以完成训练过程。图1说明了培训过程。3.2.1. 使用对比发散进行DBN可以通过使用RBM堆栈进行预训练预培训是256 512 1024(2017年)一种使用未标记数据的有效方法。(12)中的学习规则很少使用,因为由于期望模型的昂贵的精确计算,该模型中的精确最大似然(ML)学习是难以处理的。因此,学习是通过使用一个近似的 到一个不同的目标函数的梯度,称为对比散度(CD)(Hinton,2002)。对于具有Pa的形式(11)的模型参数θa,b,W,训练示例v的对数似然率如下所示(Fischer Igel,2014&):logp ( v|θ ) =log∑e-E(v,h) -log∑e-E(v,h)( 13)H梯度为:v,h经度,捕食者风险和其他生存标准,决定了着陆点的适应性PSO技术的目标是确定logp(v|θ)=-∑p(h|v)<$E(v,h)+∑p(v,h)<$E(v,h)Hv,h(十四)变量x,它是通过适应度测试的n由适应度函数或目标函数fx进行。该适应度函数评估位置x的适应度,其中x的n个成员是与位置相关的生存准则。让我们考虑一群p个粒子,其中每个粒子分别具有以下位置和速度向量:k步对比发散学习(CD-k)的思想是仅针对k步(通常为k1)运行吉布斯链,而不是通过来自RBM分布的样本来近似对数似然梯度(14)中的第二项(这将需要运行马尔可夫链,直到 固定 分布 是 达到),是 运行. 的 吉布斯 链用训练集的训练示例v(0)初始化,并产生x(it)=[xij]1n∗(十一)在k步之后采样v(k)。 每一步t由从p h v(t)采样h(t)和随后从p v h(t)采样v(t+1)组成。因此,梯度的近似变为:其中t表示当前迭代,j表示某个生存标准设粒子的最佳位置为pbx(t),全局最佳位置为gbx(t),则位置和速度. θ)Σ。H)v(0),h)∑.H)v(k),h)∂θ(十五)矢量如下:v(it+1)=wv(it)+c1r1(t)(pbx(it)-x(it))+c2r2(t)(gbx(t)-x(it))x(it+1)=x(it)+v(it+1)(十二)其中θ={a,b,W},a、b和W具有它们通常的含义。3.2.2. 使用反向传播进行在对DBN进行预训练后,使用dropout来解决过拟合问题。它指的是网络其中,c1和c2是正常数,其中,c1=1.4,c2=1.3,并且r1和r2≠[0,1]。项wv(it)考虑了第i个粒子之前的速度。w是分配给v(i,t)的权重,使得w=1使得粒子的运动完全受其先前速度的影响,否则群可以探索搜索域中的其它区域,从而增加找到全局最优值的机会。术语c1r1 (t)(pbx(it)-x(it))是一个个体认知项,当第i个粒子偏离轨道时,它会吸引第i个粒子回到它的最佳位置。c1是一个个体认知参数,衡量其先前的前一个事件的重要性。经历最后一个社会学习项c2r2(t)(gbx(t)-x(it))吸引了CDkPSO(拟议)9.2216.4126.47MWOA(拟定)10.9721.9434.16WOA(拟定)7.4813.1526.68BM3D(Dabov等人,(2007年)0.652.8511.89WNNM(Gu等人, 2014年度)203.1773.22536.4EPLL(Zoran Weiss,2011&)25.445.5422.1MLP(Burger等人, 2012年第10期)1.425.5119.4CSF(Schmidt Roth,2014&)2.115.6740.8TRND(Chen Pock,2017&)0.451.334.61DnCNN(K. Zhang,Zuo,Member,etal.,0.743.4112.1FFDNet(K. Zhang等人, 2018年)0.904.1114.1IRCNN(K. Zhang,Zuo,Gu,et al.,0.311.244.65R.S. Thakur等人智能系统与应用18(2023)2002118根据概率P,丢弃它们的连接,以防止单元太多地共同适应。现在,在预训练DBN之后获得的权重需要按1/pdropout的因子放大,以确保输出不会因dropout而发生显著变化。此外,为了确保dropout的随机性质不影响预先训练的权重,需要优化学习速率(Shrivastava等人,2014年)。因此,不同的优化技术被用来优化辍学率和学习率。优化技术的适应度函数:RMSE用作优化技术中的适应度函数,即,WOA、PSO和MWOA。RMSE函数由下式给出:R.S. Thakur等人表3智能系统与应用18(2023)2002116建议的去噪器的性能。MWOA- DBN(拟定)WOA- DBN(拟定)PSO- DBN(拟定)峰值信噪比SSIMRMSEPSNRSNRSSIMRMSEPSNRSNRSSIMRMSE高斯噪声电平飞机elσ=1537.4862 34.69400.96002.413336.457633.66110.95502.739935.622132.82750.95082.9679北极星37.5412 36.47290.93212.731836.596635.52010.92423.076435.976234.89200.92183.3275狒狒33.8607 28.32780.94763.592032.965327.43330.93523.952932.085126.54980.92204.3385芭芭拉33.7253 27.77320.91513.552533.255727.29850.91093.790032.896426.94230.90633.9010船36.6879 31.32150.95612.640335.590030.21940.94673.008834.774429.39820.93913.3210男孩26.2267 20.56120.79416.981425.979620.31220.78177.094725.879720.21560.77697.1547摄影师35.0765 29.48020.93303.046434.563528.96500.92733.217833.955428.35470.91903.4202水果37.7456 34.32470.94812.344937.030333.60540.94212.543436.211832.78310.93342.8091女孩2005年12月32日0.94082.350737.111231.63680.93962.534736.512931.03290.93482.7529Goldhill36.2820 29.89180.94622.816335.320628.92760.93713.151034.589228.19720.92663.3906Lenna37.1235 31.45320.94892.546736.369430.69790.94592.751935.819330.14880.94142.9241君主36.9848 29.94360.96132.543136.042328.99180.96022.899535.107028.06140.95693.1494山32.6289 28.38100.95404.086431.947727.70170.94824.343831.268727.01840.94114.6445辣椒37.3116 31.55620.95202.497736.622430.86620.94992.694535.990830.23890.94552.8557池40.0701 26.46480.95151.770540.065726.45070.95941.801139.797726.17640.96131.8569帆35.1778 28.39160.95493.138734.057827.27100.94193.543233.182826.39120.92873.9312郁金香35.8469 29.31420.96332.933034.757028.22170.95483.338333.888927.35720.94673.6345看36.4199 26.74600.95442.652435.567125.89600.95002.894234.802425.12280.94503.1653塞尔达37.3402 29.18340.94722.449836.840128.68040.94632.597236.531528.36380.94502.7173飞机高斯数34.9071ise水平σ=2532.1102 0.94473.211034.276531.48590.93893.355533.876431.08370.93423.4877北极星35.494234.40610.92433.464135.013333.91630.92613.669234.460433.35580.92423.9016狒狒31.435625.90000.91094.628330.871825.33290.89994.925730.150724.60900.88295.2149芭芭拉32.488526.53330.89964.056432.209626.25170.89464.191631.894725.93970.88814.2987船34.133428.75780.92963.523233.508828.13930.92003.700033.023627.64860.91243.9258男孩25.600219.92960.76247.293125.350419.68310.74837.385125.168019.49670.73847.4952摄影师33.366427.77030.91053.572333.122427.52040.90753.703132.621127.02730.89883.7825水果35.814032.39070.92862.884235.117931.68830.91903.142334.609231.18220.91233.2635女孩35.958930.47950.92852.861835.528630.04200.92393.028035.046329.56120.91823.1007Goldhill34.036927.64240.91853.601533.570027.17330.91013.779233.117926.72050.90273.9753Lenna35.281329.61200.93523.072534.837829.16140.93043.251034.375828.70470.92503.3936君主34.606827.55740.95403.342933.986626.94130.94833.514233.424526.37270.94443.7586山30.641126.38860.93344.941530.056425.80090.92465.170829.594925.33610.91755.3785辣椒35.666029.90820.94252.988935.323529.56850.93923.051934.767229.00630.93283.2510池39.420525.79700.95851.937238.957425.33810.95652.019738.744725.12680.95502.0133帆32.366125.57460.91554.269631.718824.92310.90164.552231.157124.35900.88914.8125郁金香33.2
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 保险服务门店新年工作计划PPT.pptx
- 车辆安全工作计划PPT.pptx
- ipqc工作总结PPT.pptx
- 车间员工上半年工作总结PPT.pptx
- 保险公司员工的工作总结PPT.pptx
- 报价工作总结PPT.pptx
- 冲压车间实习工作总结PPT.pptx
- ktv周工作总结PPT.pptx
- 保育院总务工作计划PPT.pptx
- xx年度现代教育技术工作总结PPT.pptx
- 出纳的年终总结PPT.pptx
- 贝贝班班级工作计划PPT.pptx
- 变电值班员技术个人工作总结PPT.pptx
- 大学生读书活动策划书PPT.pptx
- 财务出纳月工作总结PPT.pptx
- 大学生“三支一扶”服务期满工作总结(2)PPT.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)