没有合适的资源?快使用搜索试试~ 我知道了~
基于并行聚类和无监督特征选择的数据集集成方法
沙特国王大学学报使用并行集成聚类架构和无监督特征选择方法的Yubo Wanga,Shelesh Krishna Saraswatb,Elyasi Komarica中国电子科技集团公司太极计算机股份有限公司创新研究所,北京100070b印度北方邦马图拉GLA大学电子与通信系c伊朗Andimeshk伊斯兰阿扎德大学Andimeshk分校计算机工程系阿提奇莱因福奥文章历史记录:2022年11月11日收到2022年11月24日修订2022年11月27日接受2022年12月5日在线发布保留字:集群价值并行集群体系结构A B S T R A C T包围圈聚类是数据挖掘中一个具有挑战性的研究方向。几个单独的聚类方法的结果相结合,以产生更高质量的最终聚类。本文提出了一种基于分治策略的并行层次聚类方法,旨在实现更快、更有效的集成聚类。在这里,我们提出了一个集群的共识选择方法,选择一个子集的meriting主要集群参与最终的共识。考虑到样本与聚类之间以及聚类与聚类之间的此外,提出的计划配备了一个无监督的特征选择方法,以消除功能,不显着聚类。已经对来自加州大学欧文分校(UCI)机器学习库的不同维度的数据集进行了广泛的评估。仿真结果表明,该方案的有效性得到了保证,与现有的聚类方法相比,平均性能提高了6%~ 24%©2022作者(S)。由爱思唯尔公司出版代表沙特国王大学这是一个开放的访问CC BY许可下的文章(http://creativecommons.org/licenses/by/4.0/)。1. 介绍聚类是统计数据分析的一种常见数据挖掘技术,用于许多方面(Dogan和Birant,2022)。随着聚类算法的发展,在该领域中已经提出了更多的研究(Yang等人, 2022;Nasiri等人,2022年)。与此同时,研究人员面临着越来越多的聚类算法来聚类他们的数据。这是一个主要的挑战,出现时,找到一个合适的聚类算法。基本上,不存在对所有 数 据 提 供 最 佳 结 果 的 单 独 聚 类 算 法 ( Ma 等 人 , 2020;Shiri ,2021)。由于每种聚类算法都有其自身的优缺点,选择合适的聚类算法成为一个具有挑战性的问题。斯特雷尔和高希*通讯作者。电 子 邮 件地 址 :anniewtc@126.com( Y.Wang ) ,shelesh. gla.ac.in(S.Krishna Saraswat),irajelyasi@gmail.com(I. Elyasi Komari)。沙特国王大学负责同行审查(2002)通过引入集合聚类的概念来应对这一挑战。包围聚类被定义为使用共识函数将几个单独聚类算法的结果组合成单个合并分区(Hosseini和Khamesee,2009; Abbasi等人,2019年)。在人工智能中,集成被称为组合多个机器学习模型的预测以提高性能。集成聚类架构如图所示。1.一、包围聚类试图使用所有单独聚类算法的划分信息来提供与它们中的每一个单独相比更好的最终聚类(Ramtin等人,2013; Ramtin等人,2014; Chapnevis等人,2020年)。通过集成聚类将聚类结果进行组合,可以减少单个聚类算法的缺点,使其适用于更多的数据。现有的集成聚类算法主要分为三种类型(Berahmand等人,2022年)。第一种是使用约束信息确定数据的每个特征对聚类的影响。实际上,不同的特征对聚类有不同的影响。在第二种情况下,约束信息用于选择集群成员。在这里,一个可用的个体聚类算法的子集被选择作为集成聚类中的成员。第三种情况是指在共识函数的配置中使用约束信息。https://doi.org/10.1016/j.jksuci.2022.11.0161319-1578/©2022作者。由Elsevier B.V.代表沙特国王大学出版。这是CC BY许可下的开放获取文章(http://creativecommons.org/licenses/by/4.0/)。制作和主办:Elsevier可在ScienceDirect上获得目录列表沙特国王大学学报杂志首页:www.sciencedirect.comY. Wang,S.克里希纳·萨拉斯瓦特和我。ElyasiKomari沙特国王大学学报271Fig. 1.集成聚类的基本架构。Bian等(2022)表明,并非所有特征在聚类中都同样重要,因此应在数据分析中开发无监督特征选择方法。然而,大多数聚类算法平等地考虑所有特征的影响,这可能是它们在处理大数据时性能不佳的原因(Mozaffari和Houmansadr,2020; Shakarami等人,2022; Saberi-Movahed等人, 2022年)。同时,通过不同的个体聚类算法创建分区可以考虑数据的更多隐藏方面因此,重要的是确定集合聚类中的成员,这通常是基于多样性和质量因素来完成的(Sevillano等人, 2020年)。在这里,目的是选择一个子集,现有的个人聚类算法,以形成一个更好的共识。必须组合由集合聚类成员创建的分区以形成最终的聚类(Sevillano等人,2020年)。到目前为止,已经提出了广泛的一致性函数,其可以被提及为简单投票、加权相似性、混合模型、增量投票和Meta聚类(Liu等人, 2018年)。考虑到这一点,本文提出了一种基于分而治之的并行集成聚类方法,即层次化的一致性结构。该架构可以分析并行实现场景下大集群共识的计算复杂度。此外,我们提出了一个无监督的特征选择方法来删除不相关的功能。删除对聚类没有显著贡献的特征可以降低计算复杂性和大数据的可扩展性。此外,该方案配备了一个集群共识选择方法,可以选择一个子集的主要集群参与最终的共识,考虑集群和分区的优点。这里,归一化互信息(NMI)度量用于测量优点。考虑到在所选择的初级类上的样本-类和类-类相似性,我们基于类聚类技术作为一致性函数形成最终的类。虽然我们通过不同维度的数据集来评估所提出的方案,但需要强调的是,这项研究的重点是大集群集合场景,这与大数据场景并不完全相同。然而,我们已经进行了几个实验来证明所提出的方案在大数据上的可扩展性。对这项工作的主要贡献可归纳如下:基于聚类一致性选择方法利用分治策略和非监督特征选择基于簇聚类技术第二是相关的工作.第三介绍了系统模型。建议的集成聚类方案在第4中介绍。我们的计划是评估和讨论,通过几个实验在第5节。最后,第6节给出了本文的结论。2. 相关作品先前的研究已经表明,获得具有适当多样性和质量的初级聚类高度依赖于相似性函数(Yang等人,2017; Chenarlogh等人, 2019年; Li等人,第2022条b款)。同时,通过一致性函数组合主聚类是具有挑战性的,因为主聚类的数量可能很大并且没有预定义的标记。最常见的一致性函数包括元聚类算法(MCLA)、基于加权的元聚类(WMC)、超图划分算法(HGPA)和基于聚类器的相似性划分算法(CSPA)(Liu等人,2018; Berahmand等人,2020年)。一般来说,复杂的共识函数对于大数据可能是不可行的或非常耗时的(Yang等人,2017;Glorou等人,2018年)。在下文中,我们分析了一些与集成聚类相关的最新研究。研究比较见表1。Akbari et al.(2015)根据多样性和质量选择了一个集合成员子集。作者提出了层次聚类包围圈选择(HCES)算法来配置集合聚类.HCES使用单连锁、完全连锁和平均连锁技术来选择簇成员。此外,HCES配备了一个新的相似性度量的基础上NMI。作者分别使用HGPA和CSPA作为聚类集成选择和完全集成的共识函数。Shi et al.(2018)提出了一种基于转移的聚类集合选择(TCES)方法来处理集合聚类中的冗余和噪声。作者开发了一个多目标自进化过程(MOSEP)来平衡多样性和质量。在这里,多样性和质量之间的关系,制定基于三个目标函数。MOSEP通过两段局部调整和两段全局替换生成两个主聚类子集。最后,MOSEP基于快速非支配排序算法选择最优的主聚类子集. TCES配备了一个基于归一化切割算法的共识函数,可以创建最终的聚类。●●●Y. Wang,S.克里希纳·萨拉斯瓦特和我。ElyasiKomari沙特国王大学学报27221/4fgJ[1/2]12JD表1基于不同因素的回顾性研究比较参考型号名称所选集合相似性度量共识函数方法弱点Li等人(2022 a)Zhou等人(2022年)MCEMSECSHL自动自动一种新的度量NMI簇聚类超图基于双加权策略的聚类集成选择结构化超图学习大数据场景效率平衡集群Ma等人(2021年)SSCEN,自动NMI学习HGPA基于约束相关性估计不可靠,SSCEC信息少量分区Ma等人(2020年)Abbasi等人(2019年)Shi等人(2018年)MCASENMITCEs固定固定固定NMINMINMI、ARI归一化割算法平均值-连接、MCLA、HGPA、CSPA归一化割使用聚类组合和直接组合技术的结果聚合使用NMI的扩展版本提取集群和分区之间的关系平衡多样性和质量,处理具有相同簇数的分区时的收敛于低质量局部极小值设置主要Akbari等人(2015年)HCES自动NMI算法CSPA,HGPAMOSEP基于多样性和质量参数仅适用于小规模场景Abbasi等人(2019)提出了一种编辑的归一化互信息(ENMI),以克服NMI的一些缺点。 ENMI是通过分析聚类与划分之间的关联关系而发展起来的集成聚类方法。为了提高集成聚类的性能,提出了一种基于主聚类子集聚合的集成聚类方法。此外,本发明还提供了一种方法,为了创建相关矩阵,引入了扩展证据累积聚类(EEAC)方法。除相关矩阵外,还分析了HGPA、CSPA和平均连接等技术作为一致性函数。在集成聚类中,ENMI可以选择一个子集的主要集群partici-pate在最终的共识。Ma 等 人 (2020 ) 引 入 了 用 于 集 成 聚 类 的 多 重 聚 类 和 选 择(MCAS)算法。MCAS可以通过考虑多样性和质量因素以及基本分区来选择用于最终共识的此外,MCAS使用聚类组合和直接组合技术来聚合选定的结果。MCAS使用共识矩阵来创建最终聚类,该聚类是基于相同聚类中相似样本的观测数量计算的最后,根据一致性矩阵生成最终聚类。归一化割算法图学习是基于清晰的聚类结构进行的,因此不需要超图划分。Li et al.(2022 a)提出了一种集成聚类方法,称为基于模型选择的元聚类方法(MCEMS)。MCEMS包括基于所有分区中每对样本的最频繁观察而开发的新相似性度量。此外,MCEMS考虑簇大小的数量来计算相似性。MCEMS配备了一个模型选择方法,可以选择一个子集,现有的个人聚类算法使用双加权政策,以更好的共识。对于一致性函数,MCEMS使用聚类聚类技术,并且可以基于预定义的阈值来确定最优聚类的数量。3. 系统模型设X x1;x2;. ;x i;. ;xn是n个样本(或对象)的数据集。xi X是数据集X的第i个样本,其由标记向量表示,如等式(1)所示。(一).xi;xi;. . . ;xi;. . . ;xi;yii1Ma等人(2021)开发了一种基于约束信息的集成聚类方法。提出 了两 种 集成 聚 类方 法 :基 于 Ncut 的 半监 督 选择 性 聚类 集 成(SSCEN)和基于Chameleon的半监督SSCEN和SSCEC基于半监督选择性聚类,在一致性函数中使用约束信息。具体地说,SSCEN是基于规范化割算法的,它通过约束信息将图的二分法配置在一致性函数中。同时,SSCEC算法基于变色龙算法,通过约束信息配置子图在consen- sus函数中的划分仿真结果表明,SSCEN相比SSCEC和国家的最先进的方法的相对优越性。Zhou et al.(2022)提出了一种使用结构化超图学习(ECSHL)的包围聚类方法。基本上,基于超图的集成聚类方法试图通过划分预定义的静态超图来配置一致性函数。通过选择高质量的主聚类,使生成的超图结果更加可靠。在这里,超图从主聚类结果中动态学习,以产生更可靠的最终解决方案。在这种方法中,超其中,xi表示第i个样本的第j个特征,d表示第i个样本的第j个特征。要素的数量,yi表示i数据集的第个将X清晰地划分为k个聚类由标签向量表示,如等式(1)所示。(二)、X¼ ½Lx1;Lx2;.. . ;Lxi;.. . ;Lxn]2其中,L将数据集的每个样本映射到k个可用聚类之一。例如,Lxik为样本xi创建值为k的映射,其中k在1到k的范围内。Strehl和Ghosh(2002)引入了集成聚类的概念来提高聚类性能。在集成聚类中,有m个单独的聚类算法来获得关于数据集X的m个部分。设A为1;a为2;. ;a k;. m是系综聚类算法中的聚类成员每个例如k的成员可以提供关于数据集X的分区。 令pk是由ak生成的分区,其中是根据等式(1)生成的所有分区的集合。(三)、P¼ fp1; p2;.. . ; pk;.. . ; pmg3其中,pk是通过ak聚类算法获得的分区。同时,pk包含一组由等式表示的聚类(四)、Y. Wang,S.克里希纳·萨拉斯瓦特和我。ElyasiKomari沙特国王大学学报273LLL.Σhið Þ ¼nð Þ[1/2]T2.. ð Þ ¼ ð Þ¼--一种12LjpkjLter和'xq表示qL集群在这里,第2条第1款i;jj一个kpk<$hc k; c k;.. . c k;.. . ; c k i4同时确定了聚类图的适宜层次通过考虑最佳集群的数量,这将导致其中,jpkj表示p k中的簇的数量, 分区还有,c_k表示p_k分区的第l个簇的细节。每个ck最终聚类数的确定l l4.1. 特征选择方法可以包含来自数据集X的一个或多个样本,如等式(1)所示。(五)、ck<$hx′1;′x2;.. . ;'xq;. . . ;'xjckji5在哪里,c k. 表示属于ckclus的样本的数量。日 样品来自CK建议的聚类方案配备了一个unsupervised功能选择方法,以消除功能,不显着有助于聚类。移除这些特征可能会降低计算复杂性和可伸缩性with big大data数据.这里,四种无监督特征选择技术的组合包括低方差(Silipo等人, 2014年)、L'xq 1/4l,这意味着属于p k中的'xq的簇的标签。最后,共识函数C可以将聚类成员的结果组合起来,以创建最终的分区pω。因此,CPpω。共识函数可以使用不同的技术来组合现有的分区,然后创建最终的分区。最终分区pω包含与任何现有分区相比可能具有更好质量的最终聚类。集合P的划分 令pω1;cω2;。 . . ;cωj;.. . ;cωkω成为细节其中cωj是指第j个最终聚类,kω是最终聚类的总数。MCFS(Cai等人,2010)、SFS(Zhao和Liu,2007)和拉普拉斯评分(He等人,2005)用于选择具有最高信息量的特征用于聚类。我们用这四种技术计算数据集每个特征的秩,然后考虑特征的平均秩。最后,我们选择h1%的最高排名的功能进行聚类任务。下面给出所使用的无监督特征选择技术的细节低方差技术使用常见的基于方差的过滤方法来计算每个特征的等级(Silipo等人,2014年)。低方差由等式定义(六)、Pn.X4.建议计划-l2提出了一种基于层次一致性结构的集成聚类算法该体系结构基于分而治之的策略,允许并行实现层次聚类。这是在处理大数据时使集成聚类可扩展的尝试。同时,集成聚类中的一致性函数的复杂性与主聚类的数量成比例,这可能导致大数据的缓慢或不可能聚类因此,我们提出了一种基于NMI准则的聚类一致性选择方法。这种方法可以实现处理大数据的计算效益。此外,该方案配备了一个unsupervised的特征选择方法,以消除功能,不显着聚类。在这里,四个无监督的特征选择技术,包括低方差,多聚类特征选择(MCFS),光谱特征选择(SFS)和拉普拉斯得分的组合用于选择具有最高信息知识的特征进行聚类。该方法在集成聚类配置之前应用于原始数据集,并通过去除不相关的特征来帮助降低数据的维数因此,集成聚类的特征选择方法所提出的集成聚类算法的框架如图2所示。在该框架中,使用基于AHC的m个个体聚类算法生成主簇.由于AHC中的聚类解决方案是由树状图提供的,因此我们使用贝叶斯PAC学习来选择树状图中的适当级别。然而,我们通过合并主聚类并考虑预定义的阈值来预测最佳聚类的数量。在这项研究中,建议的相似性度量的定义,考虑根据集群大小和价值得分选择的主要集群。在此之后,建议的共识功能配置的基础上的集群聚类技术。在该技术中,选定的主集群被重新集群化以创建Meta集群。最后,样本被分配到具有最高相似性的Meta聚类以创建最终聚类。一般来说,纠正具有错误聚类标签的样本是改进最终聚类的一个重要挑战,已通过其中,r2j是第j个特征的方差,并且被认为是该特征的秩。此外,n表示样本数,x i;j是第i个样本中第j个特征的值,lj表示第j个特征的样本平均值。MCFS技术使用L1正则化和流形学习方法进行特征选择(Cai等人,2010年)。该技术可以考虑在嵌入空间中具有数据表示的多集群架构。MCFS试图解决广义特征的问题利乌克迪使用线性回归系数让Y y1;. 是最小特征值的特征向量。相应地,MCFS通过等式(1)计算线性回归系数(七)、minkyk-X akkbjakjn7其中,ak表示回归系数向量,jakj表示ak的L1范数。这里,参数k表示嵌入空间的维数MCFS中的第j个特征分数由等式(1)计算(八)、MCFS jmaxak;j8K其中,k;j表示k的特征j。SFS技术使用谱图理论来选择特征(Zhao和Liu,2007; MovahhedNeya等人,2022年)。在该技术中,首先计算每对样本之间的相似性作为相似性矩阵S。SFS通过径向基函数(RBF)内核计算样本之间的相似性,如等式(1)所示。(九)、kxi-xjk2si;je-2r29SFS从数据中导出无向图G,然后由S构造W作为邻接矩阵。给定W,SFS可以从G产生度矩阵D。这里,di;i2D表示W中第i行元素的和.同时,SFS通过L D W和等式Eq.(十)、创新机制。 这里,聚类是per-11基于基于AHC的个体聚类算法形成。bL¼D-2LD-210ð6ÞY. Wang,S.克里希纳·萨拉斯瓦特和我。ElyasiKomari沙特国王大学学报274图二. 提出了集成聚类框架。Y. Wang,S.克里希纳·萨拉斯瓦特和我。ElyasiKomari沙特国王大学学报275bbbbbFiB1bkDfk1¼-不Bbbb¼≥R我-不我Bbblogbr ebblogbr e-1D ¼c1;c1;.. . ;c1;c3; c3;.. . ;c3;c2; c2;. ; c2;c4; c4;. ; c4jbi j. b/8>bebe≤be1/4fg最后,SFS使用图谱来识别相关特征并计算特征得分,如等式10所示(11)- Eq.(十三)、不u1FificLfi11不基于AHC的聚类算法的重要之处在于,它们提供基于树状图的结果。在树状图中,每个级别可以被认为是输出分区(deOliveira等人,2017年)。因此,有必要确定树状图中的适当级别,这是具有挑战性的。那里是各种各样的机制,如差距统计,卡林斯基-哈拉巴斯,ficL fi2T1-fin0d2f ið12Þ模块化、轮廓、树状图、拆分/合并序列和贝叶斯PAC,以确定分布图中的适当水平(Seldin和Tishby,2010; Ghobaei-Arani,2021)。在这研究中,PAC-Bayesian用于确定fi1132我其中,Fi表示第i个特征,Fi表示由Fi形成的向量,CL表示L的傅里叶变换,并且n0等于D2e。拉普拉斯分数技术使用基于局部保持投影和拉普拉斯特征映射的过滤方法来选择特征(He等人,2005年)。此技术从以下内容创建图表数据,然后通过连接相邻的点,它用公式表示关联矩阵S,公式如下:(十四)、树状图该模型的适当性能已在各种研究中得到证明(Seldin和Tishby,2010)。一般来说,PAC-Bayesian是基于模型证据并结合假设的先验分布来表达一种信念。4.3. 分层共识架构分层共识架构的逻辑基于分治策略,其中原始的集群共识被划分成更小的小型共识,然后聚类,(ekxi-xjk2X 和x连接分别施加在每个部分上(Sevillano等人, 2020年;马达尼例如, 2021年)。在这方面,中间共有分区是0否则其中,t是数值常数。有了S,拉普拉斯分数技术可以产生对角矩阵D,其中d i;i2 D表示S中第i行元素的和.然后,拉普拉斯矩阵由D和S形成为L D S。最后,通过D计算第i个特征的秩,如等式(1)所示(15)Eq. (十六)、不在每一层中组合,直到获得最终的共有分区。因此,基于层次共识的架构可以降低并行实现场景中大集群共识的计算复杂度。分而治之策略可以通过实现大量的小型共识聚类组件来提供计算增益本研究使用分治策略,从集合A中实现m个让u个并行处理单元可用于执行原始lifiLfifi DfifT D1ð15Þ关于小型共识的集群共识。如果m,则实现完全并行化。因为在层级共识的第一步架构 在这项研究中,一个并行聚类实现bfi¼fi-我1TD11ð16Þ提出了一种处理层次共识体系结构的方法,其中,1表示由数字1形成的向量,并且fi由第i个特征形成的向量。4.2. 初级团簇表示所述是的。 这种方法是基于规则的金字塔结构,中间一致性过程,其中,系统聚类的最终解决方案在这里,所有小型共识的大小在分布式共识架构的所有步骤中保持恒定此本研究使用m个个体聚类算法来建立主聚类。本文介绍了四种基于自适应模糊控制器的算法,包括单连接、平均连接、质心连接和完全连接结构由Eq. (20).logrr1且>1H¼blog合奏。通过将集合A的算法应用于数据集X,Bbblogbr ebblogbr ebblogbr e- 1:blog re 1bRe>1生成分区。 结果,Pp1;p2;p3;p4是生成集合A的分区。每个分区可以包含一组集群对于m个单独的聚类算法,P中生成的所有主聚类的集合由等式(1)表示。(17).与此同时,EQ。(18)显示了m¼4的情况。D¼hc1; c1;.. . ; c1; c2; c2;.. . ; c2;. . ; c k; c k;.. . ; c k... . ; c m; c m;.. . ; c mi其中,H表示建议结构中的步骤总数。ture,r表示聚类分量的数量,b表示a对于小型共识,固定大小,并且[x]表示将x舍入到最接近的整数。所提出的结构的每一步都可以有一些控制,Sensus解决方案,其中i中的共识解决方案的数量12jp1j12jp2j12jpkj12jpmjð17Þ步骤(i21/21;H])根据等式(1)定义。(21).hisi¼ ma x.R;1张21张12jp1j12jp2j12jp3j12jp4jð18Þ其中,si表示第i步中的共识解的数量其中,ck表示p和p的第i个表示数字b×c表示小于或等于x的最大整数。i kjk j设rj为第j个共识过程在pk中的簇。这里,D是由不同聚类算法生成的所有主聚类的集合。为了方便起见,我们用公式表示D我从第i步,由b保持恒定。但是,它是pos-由等式其中,jDj是主聚类的总数Dc1; c2;.. . ; c i;. . ; cjDj19只有在层次结构的步骤中,才能保持rj如图所示,在Eq。(二十二)、事实上,只有当r是b的整数次幂时,才有可能保持大小不变。usi;j¼Jð14ÞBY. Wang,S.克里希纳·萨拉斯瓦特和我。ElyasiKomari沙特国王大学学报276J我我X1pm¼NMIp;p27bk kBP.Σð Þ2.ΣPP。 吉吉ΣΣ2伊赫岛#xi;xj;ck;cmk;pml公司简介kxi-xjk我 J2>::ri<$b;8i21/2;H];j2 1/2;pi]22其中,pi表示第i步中的共识进程的数目在不可能保持rj的大小恒定的情况下,备用分区被合并到第i步的最后一个微型共识中si)。备用分区是指在大小B. 这导致尺寸的小幅增加,其公式为:b≤ rj<2 b. 同时,第l步中的最小共识大小为其中h2是用于确定簇的价值的预定义阈值。为了计算pm/2PM,使用平均不对称鲁棒性作为价值分数,如等式(1)所示(27). 此外,cmk CM是基于集群和分区级别的平均非对称鲁棒性来使用的,如等式(1)所示。(28).MlmlKk¼1根据中期共识输出的数量确定,倒数第二步,如等式所示。(二十三).cmk¼x:.1XmM新墨西哥岛ck;pl!1-x:pmz>8b il和jsi我l¼1b无菌联系我们
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![.pdf](https://img-home.csdnimg.cn/images/20210720083646.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)