没有合适的资源?快使用搜索试试~ 我知道了~
沙特国王大学学报监督分类中基于Jaya算法的最优特征选择包装方法Himansu Dasa, Bighnaraj Naikb,H.S.贝赫拉aa Veer Surendra Sai University of Technology,Burla,Sambalpur 768018,Odisha,Indiab印度奥里萨邦Sambalpur 768018 Burla Veer Surendra Sai University of Technology计算机应用系阿提奇莱因福奥文章历史记录:收到2019年2020年3月29日修订2020年5月6日接受2020年5月19日网上发售保留字:特征选择监督分类Jaya优化算法Wrapper方法A B S T R A C T近年来,Jaya优化算法在多个优化问题中得到了成功的应用.提出了一种基于Jaya优化算法(FSJaya)和监督机器学习技术的特征选择(FS)方法。该方法使用搜索技术,通过更新最差的特征来降低特征空间的维数,从而找到最合适的特征。这提高了监督机器学习技术的性能。在10个基准数据集上对所提方法的有效性进行了评估,并与遗传算法(FSGA)、粒子群优化算法(FSPSO)和差分进化算法(FSPSO)等FS方法进行了比较.实验结果表明,FSJaya在大多数数据集上的平均分类准确率优于现有的方法,如FSGA,FSPSO和FSTO。利用Friedman和Holm检验验证了该方法的统计显著性与其他同行相比,该方法在选择最佳特征子集方面是有效的©2020作者由爱思唯尔公司出版代表沙特国王大学这是一个开放的访问CC BY-NC-ND许可证下的文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。1. 介绍新技术的发展导致来自多个来源的大量数据的产生和增长。处理和分析如此庞大的数据量是一个巨大的挑战。在没有任何自动化系统的情况下,从如此庞大的数据中探索有意义的信息确实是一项具有挑战性的任务。通常,这些数据包含大量的特征(Guyon和Elisseeff,2003),这些特征可能包含不相关的、冗余的和噪声的信息。这导致计算成本的增加(Li例如,2018)的问题,由于特征空间的大小的增加。也很难使其泛化和减少影响模型性能的维度。 在这种情况下,降维(Roweis和Saul,2000; Tenenbaum等人,2000)在选择最佳特征方面起着至关重要的作用,从而降低了计算成本,*通讯作者。电子邮件地址:gmail.com(H. Das)。沙特国王大学负责同行审查解决现实世界的应用,如图像和文本分析(Bingham和Mannila,2001年),以及文档分类和信息检索(Karypis和Han,2000年)。降维技术的重要性在于去除不合适的、多余的和有噪声的特征而不丢失所需的信息。这减少了计算时间,也提高了模型的性能 它可以 分 为 两 种 类 型 , 例 如 特 征 提 取 ( FE ) ( Das 等 人 , 2020c;Nevatia 和 Babu , 1980; Guyon 等 人 , 2008 ) 和 FS ( Dash 和Liu,1997; Jain和Zongker,1997; Sahrashekar和Sahin,2014)技术。 FE技术例如主成分分析(PCA)(Wold等人,1987)、线性判别分析(LDA)(Fukunaga,1990; Tharwat等人,2017)和独立成分分析(ICA)(Comon,1994; Hyvärinen和Oja,2000)通过过滤掉不相关的、冗余的和有噪声的特征,将输入特征转换为等价的新特征集。这些FE技术成功地应用于几个应用中,例如元音识别(Wang和Paliwal,2003;Ramteke,2010)和疾病分类(Das,2020 a; Das等人,2020 b; Das等人,2020年a)。 类似地,在FS技术 中 , 通过使用监督学习来选择相 关 原 始 特 征 的子集用 于 分 析(Huang,2015; Das等人,2018; Sahani等人,2018; Das等人,2015; Das 等 人 , 2020 d; Sahoo 等 人 , 2020; Panigrahi 等 人 ,2020)(其中使用标记数据训练模型)。https://doi.org/10.1016/j.jksuci.2020.05.0021319-1578/©2020作者。由爱思唯尔公司出版代表沙特国王大学这是一个在CC BY-NC-ND许可证下的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。制作和主办:Elsevier可在ScienceDirect上获得目录列表沙特国王大学学报杂志首页:www.sciencedirect.com3852H. Das等人 /沙特国王大学学报-计算机与信息科学34(2022)3851- 3863然而,这种相关特征的选择增加了分类模型的性能。几种FS技术的应用成功地应用于几种应用中,例如基因组预测(Berkeley等人,2015;Nemati等人, 2009)和微阵列数据分类(Ding和Peng,2005;Bolón-Canedo等人, 2015年)。FS技术可以分为过滤器和包装器。如果FS方法独立于学习算法,则称为过滤器方法,否则称为包装器方法。过滤器方法在计算上比包装器方法更有效然而,滤波器方法的主要缺点是它可能不独立于用于构造分类器的学习算法的归纳偏差。包装器方法的计算开销更多是由于使用学习算法对特征子集进行评估。然而,包装器方法可以提供比过滤器方法在准确性方面更好的结果本文采用了一种基于包装器的FS方法进行特征的优化选择。FS使用搜索方法从每个可能的特征组合中找到最合适的特征在传统的搜索方法中,可能的解空间随着特征数量的增加而呈指数级增加这是一个NP难问题(Kiziloz等人,2018年),因为它需要指数时间来找到最合适的最佳特征。因此,为了提高模型的性能,降低模型的计算成本,降低模型的维数是非常必要的使用遗传算法(GA)(Holland,1992)的几种基于包装器的FS方法已被用于解决FS问题(Huang等人,2007; Tan等人,2008年)。基于遗传算法的FS方法的缺点是,遗传算法需要几个参数进行调整,以获得更好的性能。类似地,差分进化(DE)(Storn和Price,1997)算法的使用需要若干参数调谐以用于解决FS问题(Khushaba等人,2008; Ghosh等人,2013年)。此外,基于DE的FS方法的主要缺陷是更复杂、更大和多模式的搜索活动,对于这些搜索活动,模型变得更复杂。称为粒子群优化(PSO)的另一种基于群体的优化算法(Kennedy和Eberhart,1995)已经被广泛用于FS问题(Sharkawy等人,2011; Sakri等人, 2018年)。这种基于PSO的 FS方法遭受过早收敛于局部最优,因为粒子从局部最优和全局最优学习所有上述优化算法都有一些控制参数,如种群大小和代数,这些参数可以被调整以提高优化算法的性能。除了这两个控制参数外,其他优化算法都有一些特定的控制参数,如遗传算法中的交叉概率、变异概率和选择算子,进化算法中的交叉和变异参数,PSO中的社会和认知参数以及初始权值也需要适当调整以获得最优结果。这些参数的适当调整会影响FS模型的性能。然而,这些算法特定的参数的不适当的调整可能会导致增加计算成本和陷入局部最优。为了解决上述问题,我们提出了一种基于Jaya优化算法(Rao,2016;Rao和Waghmare,2017)的新FS方法,名为FSJaya,以找到最合适的最佳特征,从而提高模型的性能。该方法不依赖于任何算法特定的控制参数。本文的目的是设计一种新的基于FS的包装使用Jaya优化算法的方法专注于低计算FS模型,而无需复杂的算法特定参数设置。它通过更新最差的特征来确定最合适的相关特征,这需要Jaya优化算法的强度这些相关功能适用于构建用于分类的鲁棒监督机器学习模型本研究的主要贡献如下:它提供了一种新的FS方法,使用Jaya优化算法,它提供了几种FS方法的综合分析,如FSGA,FSPSO和FSJaya,这些FS方法的几个性能指标进行了评估,使用四个分类算法,如NB,KNN,LDA,RT与综合实验10个基准数据集,并与建议的FS方法进行比较。对这些FS方法进行了统计分析,以证明实验结果的意义。该方法的主要理论意义是降低特征空间的维数,减少计算时间,解决过拟合问题,并提高模型的泛化能力。在医学疾病分类、文本或文档分类、图像分类和工业自动化系统等需要大量复杂数据分析的应用中,可以利用本研究的实际意义。本文的其余部分组织如下:第2节讨论了简要的相关工作;第3节描述了特征子集选择问题的建模,第4节描述了所提出的FSJaya方法的详细解释;第5节比较和分析了不同的基于包装器的FS方法的实验结果;第6节使用统计方法验证了所有上述方法;第7节讨论了关键问题,最后第8总结了未来的范围。2. 文献调查在过去的几十年中,FS是最常用的预处理技术(Talavera,1999),其通过消除冗余、不相关和噪声特征来降低特征的维度,而不影响模型的性能在设计任何FS方法时,都需要考虑包装器方法的评价策略(Kohavi andJohn,1997)和搜索策略等因素通常,基于过滤器的FS方法用于基于统计特征对特征进行评估和排名由于特征的重要性,通常选择最高等级的特征广泛的基于过滤器的FS方法,诸如基于相似性的方法(拉普拉斯分数、SPEC、Fisher分数、迹定量、ReliefF)、基于信息的方法(信息增益、最小冗余最大相关性)、基于统计学的方法(低方差、F分数、卡方分数、基尼指数)已经被用于基于预定义的统计标准来选择特征。它也独立于学习算法。由于上述原因,基于过滤器的方法比包装器方法更快且计算成本更低基于Wrapper的FS方法是基于学习算法来评估所选特征的质量的,基于两个因素:首先,它搜索最佳的特征子集(基于学习算法),然后通过一个模型来评估所选特征的适应度在这种方法中,一个模型是训练与一组新的功能,每次的基础上的健身值的问题的计算成本增加相比,过滤器的方法。然后根据测试集对模型进行测试并计算误差包装器方法的搜索策略可以是顺序的或随机的(Kabir等人,2011年)。顺序搜索方法顺序地选择(添加/删除)特征,但它们可能陷入局部最优。●●●●H. Das等人 /沙特国王大学学报-计算机与信息科学34(2022)3851-38633853最常用的顺序搜索方法是顺序向后搜索、顺序向前搜索和浮动搜索。然而 , 随 机 搜 索 技 术 在 搜索 过 程 中 应 用 随 机 性 以 逃 离 局 部 最 优 解(Aghdam等人,2009年)。最常用的随机搜索方法是GA、PSO、DE、SA(Kirkpatrick等人,1983)和ACO(Dorigo和Di Caro,1999)最常用于特征空间的探索。基于包装器的FS方法在研究者中仍然是一个模糊的概念,许多研究者正在不断地努力开发新的FS方法,并使用各种优化技术。几项调查(rashekar和Sahin,2014年; Cai等人, 2018年)已经对不同的FS方法及其在分类过程中的重要性进行了研究。这些调查分析了过去FS方法中采用的不同技术以及挑战。除此之外,文献中已经讨论了几种FS遗传算法的最大挑战是由于初始权值的影响而导致过早收敛或陷入局部最优。为了解决这个问题,基于PSO的FS方法(Too等人,2019)用于通过使用多个协同进化PSO来找到最合适的特征。另一种称为基于部落竞争的GA(Ma和Xia,2017)的FS算法用于将种群划分为几个部落。每个部落将只探索解决方案空间的特定部分,该算法避免了解的偏差和解中预先指定的特征。FS使用DE以及khushaba等人使用的统计修复机制。 (Khushaba等人,2011)通过使用轮盘赌轮来处理浮点数优化器(Al-Ani等人, 2013年)选拔过程。Vivekanandan等人(Vivekanandan和Iyengar,2017)提出使用DE进行心脏病预测的FS。Islam et al.(Islam etal., 2011年)也提出了FS使用DE方法,使用一种新的变异和交叉策略进行全局优化。同样,Too et al. (Too等人,2019; Too等人,2018)使用二进制PSO和灰狼优化EMG信号的FS。所有上述方法都是监督FS方法,其中类标签用作训练模型的指南。Tabakhi等人(Tabakhi等人,2014)通过使用ACO通过考虑特征相关性通过几次迭代找到特征的最佳子集来解决无监督FS模型。该特征相关性通过 使 用 特 征 之 间的 相 似 性 来 计 算 , 以 消 除 特 征 集 中 的冗 余 。Dadaneh等人(Dadaneh等人,2016)还使用ACO解决了无监督FS模型。在该模型中,利用特征间信息寻找特征间的相似性,减少特征间的冗余。所有上述方法都是由算法特定的参数控制的,这些参数需要适当调整以获得最合适的特征集。参数调整是优化算法中的一项重要任务,以获得最优的特征集。因此,它需要进行适当的调整,以实现最合适的功能集。有一些算法被称为基于教学学习的优化(TLBO)(Rao等人,2011)和Jaya(Rao和Saroj,2017)算法基于通用控制参数,而不是算法特定的控制参数。由于这种非算法特定的控制参数,TLBO和Jaya优化算法已在研究人员的多个应用中得到广泛应用(Rao,2015; Rao,2019)。在文献中,没有FS方法是通过使用Jaya优化算法。这促使我们使用Jaya优化算法来设计FS模型 除此之外,几种FS方法已经成功地应用于许多应用中,例如生物医学数据分析(Peng等人,2010; Bikku等人,2018; Drotár等人, 2015; Pradhan 等人, 2018 ), 文本分类( Uysal , 2016;Ghareb等人, 2016)、信号分类(Phinyomark等人,2012; Ma等人,2016)和微阵列数据分析(Jain等人,2018;Bolón-Canedo等人, 2014年)。类似地,已经实现了若干优化算法成功地应用于几种其它多样化的应用(Nayak等人,2018; Mishra等人, 2018年,除了FS。3. 问题表述:特征选择FS是从完整的特征集中选择最佳特征子集以提高分类模型性能的过程。它只是选择那些在决策过程中具有重要意义的特征该方法通过消除冗余或不相关的特征来构造有效的特征子集,从而降低问题的计算量最优特征子集的选择是一个NP难问题(Liu和Yu,2005),在多项式时间内无法解决我们的目标是设计的最佳子集的特征集,以提高分类过程的性能。这种特征的最佳选择包括如下四个步骤:特征子集的生成通过使用这些特征子集进行适合度评估和比较,检查是否满足终止标准,否则重复步骤1和步骤2,以及● 使用特征的最优子集进行结果验证FS方法的详细框图在图1中描述,其是不言自明的。它将数据集分为两部分,称为训练集和测试集。训练数据被传递到优化算法,以找到最合适的最佳特征。训练和测试数据的这些最佳特征被传递到分类算法以测量模型的性能。最佳合适的最佳特征的这种选择可以在等式中进行数学建模。(一).这个EQ。(1)最小化具有某些所选特征的每次迭代中的误差,这交替地增加了分类精度。fXminErrord1受X=| D|,其中dD这里,d是将优化目标函数f(X)的原始特征(D)的子集4. FSJaya模型基于种群的算法需要一些控制参数,如种群规模、代数、变异概率、交叉概率、社会和认知参数以及初始权重。需要适当调整这些参数这些特定于算法的参数的适当调整对于确定优化算法的性能是非常重要的,或者,这些参数的不适当调整可能陷入局部最优,并且还增加了问题的计算成本。在这方面,Jaya优化算法被用来克服上述问题。Jaya算法被用来设计最优的特征子集,以提高分类过程的性能。FSJaya的详细工作模型如图所示。 二、下面详细描述所提出的FSJaya方法最初,随机生成二进制种群X(i)=[x(i,1),x(i,2),x(i,3),. . ,x(i,D)],其中i = 1,2,.. . P是候选成员(总体大小),D是特征总数(设计变量)。 对于每个总体实例,生成一个特征子集,其x(i,j)= 1,用于分析,其中j = 1,2,. . 、D.这些选择的特征被传递到分类模型,如NB、KNN、LDA和RT,用于计算适应度。的●●●Mð Þ×新的;新的;新的3854H. Das等人 /沙特国王大学学报-计算机与信息科学34(2022)3851- 3863Fig. 1. FS方法的框图。目标是选择使模型的适应度最小化的特征的最佳子集。误差(k)计算为实际输出y^k并且模型估计y(k)由等式2表示,其中k = 1,2,. . ,m,m是检验观测值的数量。模型的拟合度通过将误差总和除以观测值的数量来计算,如公式3所示。Error ky^kP错误代码M与旧健身相比选择具有最小适应度值的适应度及其对应的个体进行下一代进化。完整的算法,建议FSJaya方法是目前的算法1。算法1:提出的FSJaya算法1. 随机生成二进制种群2. Set MaxIter //初始设置最大迭代次数3. Set P //人口4. 选择训练数据和测试数据健身中心健身中心1ð3Þ5. 用Eq.计算种群的适应度。(3)//如果X==1bestX和worstX被称为最佳和最差个体分别基于最小和最大适应值计算。该算法试图通过计算方程来更新最差个体,从而向最优解移动。其中xNew是新个体,x是旧个体,r1、r2是0和1之间的两个随机数。项r1(bestX-x(i,j))将个体移向最佳解,而项r2×(bestX-x(i,j))试图避免最差解。的新个体的概率P(xnew)通过使用当量(5)和每个个体的人口更新,通过使用方程。(四)、只有当新个体的概率(P(xNew(i,j)大于或等于随机数时,新个体才翻转为1,否则它被设置为0,可以从等式2描述(六)、x新i;jxi;jr1×最佳X-xi;jr 2×最差X-xi;jr 4P xi j1516. for(1 to MaxIter)7.bestX = X(min(Fitness))//最佳个体的8.worstX = X(max(Fitness))//最差个体的选择9.对于(i = 1 to P),10.Xnew(i)= X(i)+ r1(bestX-X(i))- r2(worstX-X(i))//更新总体11.通过使用等式(1)从Xnew(i)计算NewFitness(i)值。3 //if Xnew ==112.if(NewFitness(i)=Fitness(i))then //新旧Fitness13.X(i)= Xnew(i)//Update X14.Fitness(i)= NewFitness(i)//更新Fitness15.end if16.端17. 端X.1个单位;如果PxNewi;j>rand5. 实验结果分析6新的1/4;否则,所提出的特征选择方法的有效性这里,rand()是分布在0和1之间的随机数。然后,通过仅使用等式3考虑新个体(xnew)来计算新适应度这种新的健身方式是FSJaya是一种新的方法,它与FSGA,FSPSO和FSPSO等现有方法进行了比较,使用了从几个不同的地方收集的10个H. Das等人 /沙特国王大学学报-计算机与信息科学34(2022)3851-38633855图二. 拟定FSJaya算法的详细流程图。来源(Bache和Lichman,2013; Alcala-Fdez等人, 2011年)。实验是在具有以下规格的计算机系统上进行的:Intel Core i53360MCPU,时钟频率为2.80 GHz和8 GB的RAM。Matlab 2015a用于实现上述方法。这些数据集中的特征数量在8到7130之间变化在本实验中,种群规模和最大世代数是训练和测试模型的两个因素。值越高,性能越好,但会增加计算时间。为了获得整体性能,我们将人口规模和最大代数分别设置为10和本节分析了classifica的性能-从FSGA、FSPSO和FSJaya方法中选择的特征的数量和精度。由于上述方法的随机表1中记录了每个数据集和特征选择方法的平均分类精度结果。所得到的结果表明,所提出的方法(FSJaya)可以实现更高的价值相比,其他方法(FSGA,FSPSO)与选定的功能(数量较少,相比 ,原 始的 功 能) 。据 观察 , 所提 出的 FSJaya方 法与 现有 方 法(FSGA,FSPSO和FSPSO)相比,几乎对所有数据集都具有显著的准确性结果,这些方法实现了类似的结果¼¼¼ ×¼3856H. Das等人 /沙特国王大学学报-计算机与信息科学34(2022)3851- 3863表1四个分类器对十个数据集的所有FS算法的分类准确率(%)。SL. 号数据集FS算法NBKNNLDA回归树选择的特征数量1皮马无FS74.509867.973975.81771.24188FSGA78.431471.241882.352974.50984费什78.431471.895480.392275.16344FSPSO79.130473.043580.895776.0875FSJaya79.738672.54981.045876.470642电离层无FS85.714377.142987.142987.142934FSGA92.857187.142994.285792.857117费什91.428685.714392.857194.285716FSPSO93.333388.571492.38194.285716FSJaya95.714388.571497.142997.1429153声纳无FS73.170780.487865.853773.170760FSGA87.804992.682997.56185.365928费什80.487890.243982.926882.926828FSPSO75.609890.243982.926882.926828FSJaya90.243997.56197.56192.6829284马德隆无FS58.269268.782150.705170.9615500FSGA68.269276.602658.461577.3718230费什61.923170.576957.115478.2692236FSPSO62.025673.764157.115477.3718259FSJaya67.307782.692366.923186.92311405车辆无FS46.745666.403283.399272.781118FSGA56.028475.098886.956573.517812费什56.396472.781187.57475.739612FSPSO56.728476.274387.132474.632512FSJaya57.264879.289991.124378.6982126马斯克无FS82.714296.210296.967496.6145168FSGA87.869697.128297.130497.585180费什83.375497.220897.170397.936298FSPSO84.891497.539697.839198.386381FSJaya89.158598.180498.180498.9386767布雷斯特癌症无FS92.035492.920495.575285.840732FSGA97.647195.575299.11597.345115费什96.470695.294197.058897.058816FSPSO97.345196.460297.647196.470614FSJaya99.11596.460298.230196.4602148SPECTF心脏无FS84.05882.608789.23491.101444FSGA88.405892.753691.489292.728125费什89.712893.674191.594192.984125FSPSO91.78593.891792.784193.568224FSJaya93.482995.295794.396495.6396239结肠无FS58.333377.777863.654856.74322000FSGA62.583.333366.548372.22221001费什63.712482.567166.345473.73631004FSPSO64.823684.672568.689574.5783997FSJaya66.614586.569271.735776.589499210白血病无FS91.341876.190587.569189.28577130FSGA93.573985.238191.784994.42863548费什93.674190.936990.561893.13753536FSPSO94.825992.896792.493595.29843540FSJaya95.637796.742394.471996.35283531精度值与小偏差。表2中显示了其他几个性能指标,如精度、召回率和f1分数,以及所有数据集的特征子集选择方法和不选择方法。由于空间限制,两个数据集(电离层和Madelon)的误差图如图3所示,用于所有四种分类算法(NB,KNN,LDA和RT)最后,可以观察到,与现有精密TP公司简介召回TPTP TNF-措施2精确度×召回产品展示ð8Þð9Þð10Þ分类精度显著提高的方法。因此,很明显,所提出的算法是更有效的和有益的计算时间相比,现有的方法平衡和不平衡的数据集。几个性能指标,如分类准确率,精度,召回率,和F-措施计算从混淆矩阵使用Eq。(7),Eq. (8),Eq. (9)Eq.(10)分别。这里,术语TP、TN、FP和FN分别表示FS方法(如FSGA、FSPSO、FSJaya)的目标是通过调整控制参数以及算法特定(优化)参数来最小化执行时间。对于大多数FS方法,控制参数如种群大小和迭代次数分别固定为10和100然而,唯一的算法特定的控制参数,如交叉概率,变异概率,选择算子,社会参数,认知参数,和初始权重变化的所有FS方法。用NB,KNN,分类精度TP/TNTPTNFPFNð7ÞLDA和电离层和Madelon数据集的RT如图所示。 四、很明显,FS的执行时间接近H. Das等人 /沙特国王大学学报-计算机与信息科学34(2022)3851-38633857表2通过使用四个分类器对十个数据集的所有FS算法的精确度、召回率和F1得分执行时间相对于分类器处理时间、控制参数和算法特定参数而变化。然而,还应注意,与其余FS方法相比,所提出的FSJaya方法的执行时间仅由于算法特定的参数而花费合理较少的时间量据观察,基于PSO的FS方法需要更多的时间作为比较其他基于优化的FS方法,由于其算法特定的控制参数。FS方法的处理时间根据分类器的处理时间而变化在这种情况下,RT分类器比其他分类器花费更多的时间因此,与其他分类器相比,基于RT分类器的FS方法的处理时间花费更多的时间特征数量的选择是优化算法的关键决策,其中FS方法的处理时间不同。最重要的是,拟议的FSJaya与其他FS方法相比,该方法更多地降低了维度,其中与其他FS方法相比,所提出的FSJaya方法花费更少的时间。的特点FS方法取决于数据的性质、所选特征的数量、优化算法的控制参数和分类器。据观察,所提出的FSJaya方法减少了处理时间和高维数,满足我们的目标,特别是当一些计算资源可用。表3显示了两个数据集的分类精度,仅作为使用PCA、LDA和ICAFE技术的NB和KNN分类器的案例研究在这种方法中,FE技术应用于预处理阶段,以过滤掉不相关或冗余的信息。这种信息的去除还可以包含一些重要信息,对于这些重要信息,SL.号数据集FS算法NBKNNLDA回归树精度召回F1-评分精度召回F1-评分精度召回F1-评分精度召回F1-评分1皮马无FS0.84850.77780.81160.73740.76040.74870.78790.82980.80830.80810.76190.7843FSGA0.87880.80560.84060.76770.78350.77550.88570.96880.92540.83840.79050.8137费什0.87880.80560.84060.77780.78570.78170.80810.87910.84210.84840.79850.8737FSPSO0.85430.83230.84310.81460.79350.80390.80810.87910.84210.85790.83260.8553FSJaya0.90910.80360.85310.81820.77140.79410.81820.88040.84820.86340.85380.87782电离层无FS0.82860.87880.852910.68630.8140.77140.96430.85710.91430.84210.8767FSGA0.94290.91670.929610.79550.88610.94290.97060.95650.97140.89470.9315费什0.87140.95310.91040.98570.83130.9020.90.98440.94030.95710.95710.9571FSPSO0.92860.95590.94210.80460.89170.90.98440.94030.95710.95710.9571FSJaya0.97140.94440.9577110.88610.914310.955210.97220.98593声纳无FS0.750.71430.73170.650.92860.76470.40.80.53330.750.71430.7317FSGA0.950.82610.88370.8510.91890.9510.97440.90.81820.8571费什0.850.77270.80950.90.94740.92310.750.88240.81080.750.88240.8108FSPSO0.90.69230.78260.90.94740.92310.750.88240.81080.750.88240.8108FSJaya10.83330.90910.8510.91890.9510.97440.90.94740.92314马德隆无FS0.53490.58720.55980.68130.68750.68440.5310.4910.51020.79070.76690.7786FSGA0.59690.69060.64030.80.77990.78980.59630.56830.56090.7860.77450.7734费什0.53880.60430.56970.70160.70980.70570.58450.56410.56490.78360.77890.7659FSPSO0.56590.61340.58870.6310.6190.62490.58450.56410.56490.7860.77450.7734FSJaya0.63180.70870.6680.79070.80950.80.60080.62750.61390.87980.85660.86815车辆无FS0.470.49340.48310.580.650.610.83240.8570.81560.72740.71480.7213FSGA0.57150.58360.61020.630.610.620.86520.85480.86270.73170.72610.7380费什0.55890.58310.54960.71250.7050.70750.87470.88010.86930.75340.74870.8527FSPSO0.59260.56340.57540.7350.72250.7250.86570.85670.86130.73670.75730.7726FSJaya0.590.57750.56750.77750.770.66520.88650.89450.88720.78340.67490.83546马斯克无FS0.84560.94390.82710.98160.97410.97790.99460.97020.98230.97870.98160.9801FSGA0.88870.94740.91710.99230.98360.98790.99590.97220.98390.97450.98430.9768费什0.88390.93720.90980.98870.97950.98410.99790.97880.97990.98220.97380.9811FSPSO0.86370.94190.90110.98930.98180.98550.99460.98050.98750.98850.98330.9895FSJaya0.92550.93810.931810.97890.98930.99550.98230.98890.99370.99020.99197布列斯特无FS0.92310.81820.86750.96150.78130.862110.83870.91230.88460.63890.7419癌FSGA0.97440.92680.9510.83870.912310.9630.98110.96150.92590.9434费什10.86670.92860.95310.88260.847110.88640.939810.88640.9398FSPSO0.96150.92590.94340.95790.91260.897110.92860.96310.86670.9286FSJaya0.96150.96150.96150.92310.92310.92310.96150.96150.96150.95790.91260.89718SPECTF无FS10.78430.87910.750.93750.83330.88750.95370.93570.92370.91770.9459心脏FSGA10.86960.93020.910.92740.93470.92630.94730.92550.95310.9438费什10.86420.87490.82370.97340.85730.94560.93640.94770.93140.95340.951FSPSO10.80.88890.80.94120.86490.94960.9540.94710.93740.95730.9556FSJaya10.85110.91950.87510.93330.95340.96440.95930.95220.96210.95499结肠无FS0.54620.61290.54440.71430.71430.71430.58440.62550.58920.56270.62170.6113FSGA0.56340.61560.58740.71430.83330.76920.72860.61820.58920.78820.77470.7882费什0.66220.61390.57480.75460.87560.81440.72560.75380.72840.80460.78640.8152FSPSO0.65370.62830.62630.88530.77550.88460.75480.76690.74950.83730.79540.8341FSJaya0.68290.64710.64270.87220.85520.86450.72650.76220.70690.81640.79360.784210白血病无FS0.88570.91560.92830.76350.66670.80.78230.95230.87480.810.8889FSGA0
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- OptiX传输试题与SDH基础知识
- C++Builder函数详解与应用
- Linux shell (bash) 文件与字符串比较运算符详解
- Adam Gawne-Cain解读英文版WKT格式与常见投影标准
- dos命令详解:基础操作与网络测试必备
- Windows 蓝屏代码解析与处理指南
- PSoC CY8C24533在电动自行车控制器设计中的应用
- PHP整合FCKeditor网页编辑器教程
- Java Swing计算器源码示例:初学者入门教程
- Eclipse平台上的可视化开发:使用VEP与SWT
- 软件工程CASE工具实践指南
- AIX LVM详解:网络存储架构与管理
- 递归算法解析:文件系统、XML与树图
- 使用Struts2与MySQL构建Web登录验证教程
- PHP5 CLI模式:用PHP编写Shell脚本教程
- MyBatis与Spring完美整合:1.0.0-RC3详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功