没有合适的资源?快使用搜索试试~ 我知道了~
pre-defined kernel matrices, MKC integrates the availablemultiple kernel information to categorize data items withsimilar structures or patterns into the same group, whichhas been intensively studied and widely applied into vari-ous applications [9, 14, 9, 23, 17, 16, 13]. For example, thework in [11] proposes a multiple kernel k-means clusteringalgorithm with a matrix-induced regularization term to re-duce the redundancy of the selected kernels. A local kernelalignment variant is then developed by sufficiently consid-ering the variation among sample, which is experimentallyverified to enhance the clustering performance in [9]. Byassuming an optimal kernel residing in the neighborhood ofthe combined kernels, the work in [14] proposes an optimalneighborhood multiple kernel clustering algorithm, whichimproves the clustering performance by enhancing the rep-resentability of the learned optimal kernel. Differently, latefusion based multiple kernel clustering strategy seeks toexploit the complementary information in kernel partitionspace to achieve consensus on partition level [23]. Specif-ically, the pioneering work in [23] proposes to maximallyalign the multiple base partitions with the consensus parti-tion, which enjoys considerable algorithm acceleration andsatisfactory clustering performance. Along this line, an ef-fective and efficient late fusion based algorithm is proposedin [12] to handle incomplete multi-view data.92930本地化简单多核k均值0刘新旺1*,周思航1,刘力1,唐畅2,王思伟1,刘继元1,张毅101 中国国防科技大学,湖南长沙,410072,中国。2中国地质大学,湖北武汉,430074,中国。xinwangliu@nudt.edu.cn0摘要作为多核聚类(MKC)的代表,最近提出了一种简单多核k均值(SimpleMKKM)来通过最优地融合一组预先指定的核矩阵来提高聚类性能。尽管在各种应用中取得了显著的改进,但我们发现SimpleMKKM可能会不加区分地强制所有样本对与相同的理想相似性对齐。因此,它不充分考虑样本的变化,导致聚类性能不理想。为了解决这些问题,本文提出了一种具有“局部”核对齐的新型MKC算法,它只需要样本与其k个最近邻的相似性与理想相似性矩阵对齐。这种对齐有助于聚类算法关注更接近的样本对,使它们保持在一起,并避免涉及远离的样本对的不可靠相似性评估。之后,我们在理论上证明了SimpleMKKM的目标是这种局部核对齐准则的一个特例,其中每个基本核矩阵都进行了归一化。基于这个观察,所提出的本地化SimpleMKKM可以通过现有的SimpleMKKM软件包轻松实现。此外,我们在几个广泛使用的基准数据集上进行了大量实验,以评估本地化SimpleMKKM的聚类性能。实验结果表明,我们的算法始终优于现有的最先进算法,验证了所提出的局部核对齐准则的有效性。本地化SimpleMKKM的代码公开可用于:https://github.com/xinwangliu/LocalizedSMKKM。01. 引言0*通讯作者0作为MKC的代表,最近提出了一种新颖的简单多核k均值(SimpleMKKM)[15]。SimpleMKKM不是同时最小化核权重和聚类分区矩阵,而是在核权重最小化和聚类分区矩阵最大化的优化框架下进行最小化,导致一个难以处理的极小极大优化问题。之后,它等效地转化为一个最小化问题,并设计了一个减少梯度算法来解决所得到的优化问题。这个算法被验证为对优化问题高效,对噪声视图具有鲁棒性,并吸引了许多研究人员的密切关注。0尽管最近提出的 SimpleMKKM具有上述优点,但我们观察到它严格地将组合核矩阵与“理想”相似度对齐。minγ∈∆, H∈Rn×k Tr(Kγ(I − HH⊤)) s.t. H⊤H = Ik, (3)minγ∈∆maxH∈Rn×k Tr(KγHH⊤) s.t. H⊤H = Ik.(4)92940由全局聚类分区矩阵生成的核对齐可能会以全局方式不加区分地强制所有样本对与相同的理想相似度对齐。结果是,它不能有效处理样本之间的变化并忽略局部结构,这可能导致不令人满意的聚类性能。为了解决上述问题,我们提出以“局部”方式计算核对齐,这仅要求生成的组合核在每个样本的 k个最近邻居的局部范围内与理想相似度矩阵对齐。这种对齐引导聚类算法关注应该在一起的更近的样本对,并避免涉及远离的样本对的不可靠相似度评估。通过这种方式,我们提出的算法可以充分考虑样本之间的变化,从而提高聚类性能。然后,我们基于 SimpleMKKM的最小化-最大化优化框架推导出我们算法的目标函数。之后,我们在理论上证明了 SimpleMKKM是我们提出的算法的特例。基于这一观察,我们提出的局部变体可以通过 SimpleMKKM包简单地通过归一化每个基础核来实现。我们在几个基准数据集上进行了全面的实验,结果充分验证了所提出的局部SimpleMKKM 的有效性。本文的主要贡献总结如下:0• 我们首次确定最近提出的 SimpleMKKM不能有效处理核矩阵之间的变化,并开发了一种局部核对齐准则来解决这个问题。0• 我们在理论上揭示了 SimpleMKKM与我们提出的算法之间的联系,并指出前者是我们的特例。0•我们在几个公共数据集上进行了大量实验,以评估我们提出的算法的有效性。实验结果表明,我们的算法始终优于最先进的竞争对手,验证了其有效性和效率。02. 相关工作0在本节中,我们简要介绍了多核k-means(MKKM)[3]和最近提出的简单多核k-means(SimpleMKKM)[15],它们与我们的工作密切相关。02.1. 多核 k-means0给定 X ∈ R^n×d,其中 n 和 d分别是样本数和特征维度,k-means 聚类旨在将 X 分成 k个簇。设 Z ∈ {0,1}^{n×k} 是一个聚类分配矩阵,其中Z_iq = 1 表示 x_i 属于第 q 个簇。0对于其他聚类,Z_iq = 0。其目标可以表示为:0min Z,{c_q}^k_{q=1} 1/n0∑_n0i=10∑_k0q=1 Z_iq ∥x_i - c_q∥^2(1)0其中,对于所有的 i,有 Z_iq =1。考虑到样本在原始空间中可能无法很好地聚类,通常将它们映射到再生核希尔伯特空间(RKHS)[20] H中,其中特征映射为 ϕ(∙),即 φ_i =ϕ(x_i),然后在该空间中使用 k-means进行聚类。注意,映射函数 ϕ(∙)通常是隐式定义的,可以构造一个核矩阵,其中 K_i,j =φ_i^T φ_j。基于这些定义,核 k-means的目标函数可以重写为:0min H ∈ R^n×k Tr[ K - In - HH^T ] s.t. H^T H = Ik (2)0其中 H 被称为聚类分区矩阵,I_k 是一个大小为 k的单位矩阵。众所周知,核 k-means的性能在很大程度上取决于核矩阵的选择。假设最优核 K_γ可以表示为预先指定的基础核矩阵的组合,那么方程(2)中的目标函数可以很容易地扩展到多核k-means,目标函数如下:0其中,∆ = { γ ∈ R m | � m p =1 γ p = 1 , γ p ≥ 0 , � p} 且 K γ = � m p =1 γ 2 p Kp。在文献中,开发了一种两步交替优化方法,证明了其收敛性,用于联合优化方程(3)中的γ和H。在获得聚类划分矩阵H后,应用标准的k均值算法来计算离散的聚类分配。02.2. 简单多核K均值0最近,在[15]中的实证观察到,现有的MKKM中广泛使用的min γ minH范式可能无法在实际应用中实现有希望的聚类性能,有时甚至比平均核k均值还差。这激发了研究人员设计新的聚类模型。SimpleMKKM与现有的min γ minH范式不同,提出了一种新颖的min γ maxH优化框架,如下所示:0这个新的极小极大化公式使得方程(4)无法通过广泛使用的交替优化方法求解。与此不同的是,SimpleMKKM首先将极小化问题重写为关于γ的极小化问题,并证明了所得极小化问题的可微性。然后,设计了一种简化的梯度下降优化方法来解决关于γ的极小化问题。�S(i)⊤KγS(i), S(i)⊤H⊤HS(i)�F ,(5)minγ∈∆ maxH∈Rn×k Tr H⊤ni=1(A(i)KγA(i))Hi=1F=�ni=1�A(i) ⊗ Kγ, HH⊤�F=���ni=1 A(i)�⊗ Kγ, HH⊤�F=�mp=1 γ2p���ni=1 A(i)�⊗ Kp, HH⊤�F=�mp=1 γ2p�˜Kp, HH⊤�F= Tr�H⊤ ˜KγH�,(7)where ⊗ denotes element-wise multiplication between twomatrices, ˜Kp =��ni=1 A(i)�⊗ Kp can be treated as anormalized Kp, and ˜Kγ = �mp=1 γ2p ˜Kp. Consequently,by such normalization applied on each base kernel, we canclearly see that the global kernel alignment in [15] is a spe-cial case of the local kernel alignment criterion in Eq. (6).This completes the proof.As can be seen from Theorem 1, our formulation in Eq.(6) reduces to SimpleMKKM when all elements of A(i) areset as one. In that case, each sample takes the rest ones as itsneighbors. This implies that SimpleMKKM can be treatedas a special case of our formulation. Based on Theorem 1,our formulation in Eq. (6) can be equivalently rewritten as,minγ∈∆ J (γ),(8)withJ (γ) =�maxHTr�H⊤ ˜KγH�, s.t. H⊤H = Ik.�(9)By this way, the minγ-maxH optimization is transformedto a minimization one, where its objective J (γ) is a kernelk-means optimal value function.The following Theorem 2 shows that each ˜Kp is stillkept positive semidefinite (PSD) with the aforementionednormalization.Theorem 2 Each ˜Kp (1 ≤ p ≤ m) is PSD.Proof 2 Note that S(i) ∈ {0, 1}n×round(τ×n) and A(i) =S(i)S(i)⊤, which implies that A(i) and �ni=1 A(i) are bothPSD. Also, the element-wise multiplication between twoPSD matrices is PSD. As a result, ˜Kp is PSD.Based on Theorem 2, we know that each ˜Kp keeps pos-itive semidefinite with the aforementioned normalization,which guarantees the differentiability of J (γ). In the fol-lowing, we first prove the differentiability of J (γ), showhow to calculate its gradient, and use the reduced gradientdescent algorithm in [15] to decrease Eq. (8).929503. 提出的局部SimpleMKKM03.1. 提出的公式0设 h i (1 ≤ i ≤ n )表示聚类划分矩阵H的第i行。从方程(4)可以看出,SimpleMKKM优化了K γ和HH�之间的对齐。0全局对齐方式。也就是说,它不加区分地将每个Kij与“理想”值h � i hj对齐,而不考虑核矩阵之间的潜在变化。这将导致具有高变化的Kij与相同的聚类标签对齐。一个更合理的准则应该摆脱高维核空间中不可靠的远程全局相似性信息,并同时更加集中于巩固高置信度的聚类预测。为了实现这个目标,我们提出了一种局部方式将K γ与HH �对齐。0设 S ( i ) ∈ { 0 , 1 } n × round( τ × n ) ( � i )是一个指示矩阵,表示第i个样本的round( τ × n)个最近邻,其中round( ∙)是一个取整函数。我们定义第i个样本的局部对齐如下:0其中,S ( i ) � K γ S ( i ) 表示根据第i个样本的邻域从Kγ中提取元素。可以看出,这种局部对齐只要求更可靠的样本保持在一起,更好地利用了聚类中的核变化。通过对每个样本采用方程(5)的局部对齐,我们得到了所提出的局部SimpleMKKM的目标函数如下:0s.t. H � H = I k , (6) 其中,∆ = { γ ∈ R m | � m p =1 γp = 1 , γ p ≥ 0 , � p } ,0K γ = � m p =1 γ 2 p K p,A ( i ) = S ( i ) S ( i ) �是第i个样本的邻域掩码矩阵。0接下来,我们建立了所提出的算法与SimpleMKKM之间的理论联系。0定理1:SimpleMKKM的目标函数是方程(6)的一个特例。0证明1:方程(6)中的目标函数可以写成 � n3.2. The Calculation of Reduced Gradient and Op-timization AlgorithmBy following [15] and Theorem 2, Theorem 3 shows thatJ (γ) in Eq. (8) is differentiable.Theorem 3 ([15]) J (γ) in Eq. (8) is differentiable. Fur-ther,∂J (γ)∂γp=2γpTr�H∗⊤ ˜KpH∗�, where H∗=�arg maxH Tr�H⊤ ˜KγH�s.t. H⊤H = Ik�.The formal proof is omitted due to space limit. The coreidea of this proof is to show that the global optimum for Eq.(9) with a given γ is unique. Interested readers are referredto [15] for the detailed proof.In the following, we propose to solve the optimizationin Eq. (8) with a reduced gradient descent algorithm. Wefirstly calculate the gradient of J (γ) according to Theorem3, and then update γ with a descent direction by which theequality and non-negativity constraints on γ can be guar-anteed. To fulfill this goal, we firstly handle the equalityconstraint by computing the reduced gradient by follow-ing [19, 15]. Let γu be a non-zero component of γ and▽J (γ) denote the reduced gradient of J (γ). The p-th(1 ≤ p ≤ m) element of ▽J (γ) is[▽J (γ)]p = ∂J (γ)∂γp− ∂J (γ)∂γu∀ p ̸= u,(10)and[▽J (γ)]u =�mp=1,p̸=u�∂J (γ)∂γu− ∂J (γ)∂γp�(11)̸111:end if12:t ← t + 1.13: end while92960根据[19,15]中的建议,我们选择u作为向量γ的最大分量的索引,认为这样可以提供更好的数值稳定性。然后我们考虑到γ的正性约束条件在下降方向中。注意,-▽J(γ)是一个下降方向,因为我们的目标是最小化J(γ)。然而,直接使用这个方向会违反正性约束条件,即如果存在一个索引p使得γp=0且[▽J(γ)]p>0,则该分量的下降方向应该设为0。这给出了更新γ的下降方向,即00 if γ p = 0 and [ ▽J ( γ )] p > 0 − [ ▽J ( γ )] p if γp > 0 and p � = u − [ ▽J ( γ )] u if p = u. (12)在通过方程(12)计算出下降方向d=[d1,∙∙∙,dm]�后,可以通过更新方案γ ← γ +αd来计算γ,其中α是最优步长。可以通过一维线搜索策略(如Armijo准则)选择它。解决方程(6)中的优化问题的整个算法过程概述在算法1中。0算法1 提出的局部SimpleMKKM01: 输入: { K p } m p =1 , k, τ, t = 102: 初始化 γ (1) = 1 /m, �ag = 1 . 3: 根据平均核计算round( τ × n ) -最近邻指示矩阵{A(i)}ni=1。04: ˜ K p = ( ∑ni=1A(i))�K .05: while �ag do 6:通过求解具有˜Kγ的核k-means计算H。07: 计算∂J(γ)0∂γ p ( p = 1 , ∙ ∙ ∙ , m ) 和下降方向di-0方向d(t)在方程(12)中。08: 更新 γ ( t +1) ← γ ( t ) + α d ( t ) .09: 如果max|γ(t+1)−γ(t)|≤1e−4则03.3. 计算复杂度和收敛性0我们讨论了所提出的局部SimpleMKKM的计算复杂度。从算法1可以看出,局部SimpleMKKM首先计算一个邻域掩码矩阵,其计算复杂度为O(n^2log^2n),然后执行SimpleMKKM。其总体复杂度为O(ℓ0*n^3+n^2log^2n),其中ℓ0是达到收敛所需的最小迭代次数。观察到,局部SimpleMKKM并没有显著增加现有MKKM和SimpleMKKM算法的计算复杂度,这些算法在每次迭代时的复杂度为O(n^3)。0然后我们简要讨论了局部SimpleMKKM的收敛性。注意,对于给定的γ,方程(9)是一个具有全局最优解的传统核k-means。在这种情况下,定理3中的梯度计算是精确的,我们的算法对定义在单纯形{γ∈Rm|∑mp=1γp=1,γp≥0,�p}上的连续可微函数J(γ)执行了降低梯度下降,这确实会收敛到J(γ)的最小值[19]。04. 实验0在本节中,我们进行了一项全面的实验研究,以评估所提出的局部SimpleMKKM在整体聚类性能、学习到的核权重、学习到的H的收敛和演化、参数敏感性分析以及运行时间方面的性能。04.1. 实验设置0为了评估局部SimpleMKKM的性能,我们使用了一些MKKM基准数据集MSRA21067Still46736Cal-744167PFD6941227Nonpl2732693Flo171360717Flo10281894102Reuters18758561http://www.vision.caltech.edu/ImageDatasets/Caltech1012mkl.ucsd.edu/dataset/protein-fold-prediction3https://bmi.inf.ethz.ch/supplements/protsubloc/4www.robots.ox.ac.uk/˜vgg/data/flowers/17/5www.robots.ox.ac.uk/˜vgg/data/flowers/102/6http://kdd.ics.uci.edu/databases/reuters21578/92970表1. 数据集概述0数据集 样本数 核函数 聚类数0包括 MSRA [24],Still [6],Cal-7 1,PFold 2,Nonpl3,Flo17 4,Flo102 5,Reuters6等。表1详细总结了数据集的信息。可以观察到这些数据集的样本数、核数和类别数呈现出相当大的变化,为比较不同聚类算法的性能提供了良好的平台。对于所有数据集,真实的聚类数 k是预先指定的,并设置为真实的类别数。聚类准确度(ACC),归一化互信息(NMI),纯度和兰德指数(RI)被广泛应用于评估聚类性能。对于所有算法,我们重复每个实验50次,使用随机初始化来减少由 k-均值引起的随机性影响,并报告均值和变异性。除了本地化的SimpleMKKM,我们还在最近的多核聚类文献中运行了另外九个比较算法,包括0• 平均核 k-均值(Avg-KKM)。共识核均匀地组合基本核,然后作为核 k -均值的输入。0• 多核 k -均值(MKKM)[4]。基本核线性组合成共识核。此外,组合权重与聚类一起进行优化。0• 本地化多核 k -均值(LMKKM)[2]。基本核与样本自适应权重相结合。0•最佳邻域核聚类(ONKC)[14]。共识核是从线性组合的基本核的邻居中选择的。0• 具有矩阵诱导正则化的多核 k -均值(MKKM-MR)[11]。通过引入矩阵诱导正则化项来学习最优组合权重,以减少基本核之间的冗余。0• 具有局部对齐最大化的多核聚类(LKAM)[9]。将样本与其 k个最近邻的相似性与理想的相似性矩阵对齐,而不是与所有样本对齐。0• 多视图聚类通过后期融合对齐最大化(LF-MVC)[23]。首先在相应的数据视图内计算基本划分,然后将其集成到一致性划分中。0• MKKM-MM [1]。它提出了一个 min H - max γ的公式,以一种方式将视图组合起来,以揭示组合核空间中的高内部聚类方差,然后通过最小化这种方差来更新聚类。0• SimpleMKKM[15]。它将广泛使用的监督核对齐准则扩展到多视图聚类,并提出了一种新颖的聚类目标,即最小化核权重的对齐并最大化聚类划分矩阵的对齐。0比较算法的实现可在相应的论文中公开获得,我们在实验中直接采用它们而不进行调整。在所有上述算法中,ONKC[14],MKKM-MiR [11],LKAM [9]和LF-MVC[23]都有需要调整的超参数。按照相应论文中的相同设置,我们重复使用已发布的代码,并仔细调整超参数以在每个数据集上产生最佳结果。04.2. 实验结果0整体聚类性能比较。表2展示了所有上述算法的ACC,NMI,纯度和RI的比较。从表2中,我们得出以下观察结果:0• MKKM-MM[1]首次尝试通过最小化-最大化学习来改进MKKM。观察结果发现,它确实改进了MKKM,但在所有数据集上与MKKM相比的性能提升较小。与此同时,提出的本地化SimpleMKKM在性能上显著优于MKKM-MM。这再次证明了我们的公式和相关优化策略的优势。0•除了我们的本地化SimpleMKKM之外,SimpleMKKM在所有基准数据集上与上述算法相比具有可比较或更好的聚类性能。这种优势归功于其新颖的公式和新的优化算法。0•提出的本地化SimpleMKKM在八个基准数据集上始终表现出色且显著优于SimpleMKKM。例如,在ACC方面,它超过SimpleMKKM算法分别为4.7%,5.2%,8.3%,1.2%,17.3%,1.8%,1.5%和1.1%。ACCMSRA83.3 ± 0.881.3 ± 3.181.9 ± 0.785.4 ± 0.488.1 ± 0.189.1 ± 0.287.8 ± 0.483.3 ± 0.886.5 ± 0.291.2 ± 1.0STILL31.3 ± 0.731.3 ± 0.631.1 ± 0.531.8 ± 1.031.7 ± 1.233.1 ± 0.332.0 ± 0.731.3 ± 0.731.3 ± 0.636.5 ± 0.8CAL-759.2 ± 4.952.2 ± 4.353.9 ± 1.069.4 ± 2.568.4 ± 0.370.4 ± 1.471.4 ± 1.459.2 ± 4.968.2 ± 1.576.5 ± 0.2PFD29.0 ± 1.527.0 ± 1.122.4 ± 0.736.3 ± 1.534.7 ± 1.837.7 ± 1.233.0 ± 1.429.0 ± 1.534.7 ± 1.935.9 ± 1.5NONPL49.7 ± 0.249.3 ± 0.2-56.7 ± 0.050.4 ± 0.055.0 ± 0.048.7 ± 0.249.7 ± 0.252.0 ± 0.069.3 ± 0.0FLO1750.8 ± 1.544.9 ± 2.437.5 ± 1.654.2 ± 2.258.5 ± 1.550.0 ± 0.861.0 ± 0.750.8 ± 1.559.5 ± 1.361.3 ± 1.3FLO10227.1 ± 0.822.4 ± 0.5-39.5 ± 0.740.2 ± 0.941.4 ± 0.838.4 ± 1.227.1 ± 0.842.5 ± 0.844.0 ± 1.0REUTERS45.5 ± 1.545.4 ± 1.5-40.9 ± 2.139.7 ± 1.540.0 ± 2.245.4 ± 1.745.5 ± 1.545.5 ± 0.746.6 ± 1.0NMIMSRA74.0 ± 1.073.2 ± 1.775.0 ± 1.474.9 ± 0.777.6 ± 0.379.8 ± 0.279.4 ± 0.874.0 ± 1.075.2 ± 0.582.6 ± 1.5STILL12.8 ± 0.813.0 ± 0.813.2 ± 0.512.9 ± 0.312.9 ± 0.412.9 ± 0.111.9 ± 0.512.8 ± 0.812.8 ± 1.013.8 ± 0.8CAL-759.1 ± 2.951.6 ± 4.152.1 ± 1.363.5 ± 2.464.1 ± 0.265.3 ± 0.770.1 ± 3.059.1 ± 2.963.7 ± 0.374.6 ± 1.2PFD40.3 ± 1.338.0 ± 0.634.7 ± 0.644.4 ± 0.943.7 ± 1.246.2 ± 0.641.7 ± 1.140.3 ± 1.344.4 ± 1.145.2 ± 1.3NONPL17.2 ± 0.515.0 ± 0.5-11.8 ± 0.014.8 ± 0.016.0 ± 0.013.0 ± 0.117.2 ± 0.511.2 ± 0.022.6 ± 0.0FLO1749.7 ± 1.044.9 ± 1.538.8 ± 1.152.6 ± 1.256.4 ± 0.949.8 ± 0.658.9 ± 0.449.7 ± 1.057.8 ± 0.958.9 ± 0.5FLO10246.0 ± 0.542.7 ± 0.2-56.1 ± 0.456.7 ± 0.556.9 ± 0.354.9 ± 0.446.0 ± 0.558.6 ± 0.560.0 ± 0.4REUTERS27.4 ± 0.427.3 ± 0.4-21.0 ± 1.821.31.321.5 ± 2.327.2 ± 0.227.4 ± 0.427.7 ± 0.227.0 ± 0.6MSRA83.3 ± 0.881.5 ± 2.781.9 ± 0.785.4 ± 0.488.1 ± 0.189.1 ± 0.287.8 ± 0.483.3 ± 0.886.5 ± 0.291.2 ± 1.0STILL33.8 ± 0.833.8 ± 0.733.3 ± 0.534.2 ± 0.934.1 ± 1.036.1 ± 0.235.0 ± 0.533.8 ± 0.833.8 ± 0.738.2 ± 1.1CAL-768.0 ± 3.263.8 ± 3.766.4 ± 0.674.0 ± 2.172.9 ± 0.376.6 ± 0.479.6 ± 2.968.0 ± 3.272.3 ± 0.281.7 ± 1.3PFD37.4 ± 1.733.7 ± 1.131.2 ± 1.042.7 ± 1.341.9 ± 1.443.7 ± 0.839.3 ± 1.537.4 ± 1.741.8 ± 1.542.5 ± 1.6NONPL72.5 ± 0.271.2 ± 0.2-62.3 ± 0.160.4 ± 0.061.6 ± 0.169.7 ± 0.172.5 ± 0.260.4 ± 0.070.6 ± 0.0FLO1751.9 ± 1.546.2 ± 2.039.2 ± 1.355.4 ± 2.259.7 ± 1.651.4 ± 0.762.4 ± 0.751.9 ± 1.560.9 ± 1.262.0 ± 1.3FLO10232.3 ± 0.627.8 ± 0.4-45.6 ± 0.746.3 ± 0.848.0 ± 0.644.6 ± 0.832.3 ± 0.648.6 ± 0.750.3 ± 0.7REUTERS53.0 ± 0.452.9 ± 0.5-51.8 ± 1.550.9 ± 1.451.9 ± 1.052.9 ± 0.353.0 ± 0.453.3 ± 0.052.8 ± 0.2RAND INDEXMKKMONKCMKKM-MirLKAMLF-MVCMKKM-MMSMKKMLocal-SMKKM00.20.40.60.81MKKMONKCMKKM-MirLKAMLF-MVCMKKM-MMSMKKMLocal-SMKKM00.20.40.60.8MKKMONKCMKKM-MirLKAMLF-MVCMKKM-MMSMKKMLocal-SMKKM00.10.20.30.40.5MKKMONKCMKKM-MirLKAMLF-MVCMKKM-MMSMKKMLocal-SMKKM00.20.40.60.81MKKMONKCMKKM-MirLKAMLF-MVCMKKM-MMSMKKMLocal-SMKKM00.20.40.60.81MKKMONKCMKKM-MirLKAMLF-MVCMKKM-MMSMKKMLocal-SMKKM00.20.40.60.8192980表2. 在ACC、NMI、Purity和RandIndex方面,对本地化SimpleMKKM与九种基准方法在八个基准数据集上进行经验评估和比较。粗体表示与最佳结果没有统计差异。0数据集 AVG-KKM MKKM LMKKM ONKC MKKM-MR LKAM LF-MVC MKKM-MM SIMPLE MKKM PROPOSED [4] [2] [14] [11] [9] [23] [1] [15]0PURITY0MSRA 68.1 ± 1.0 66.2 ± 3.1 68.0 ± 1.1 69.8 ± 0.7 74.5 ± 0.1 76.7 ± 0.4 74.5 ± 0.8 68.1 ± 1.0 71.2 ± 0.5 80.6 ± 1.8 STILL 8.0 ± 0.5 8.0 ± 0.5 8.0 ± 0.2 8.2 ± 0.2 8.1 ±0.3 7.7 ± 0.0 7.7 ± 0.4 8.0 ± 0.5 7.9 ± 0.5 9.3 ± 0.3 CAL-7 46.0 ± 6.5 38.3 ± 4.9 41.2 ± 1.1 56.8 ± 4.2 55.6 ± 0.6 59.4 ± 2.2 65.2 ± 3.4 46.0 ± 6.5 55.6 ± 0.3 69.4 ±0.7 PFD 14.4 ± 1.8 12.1 ± 0.7 7.8 ± 0.4 18.0 ± 1.1 17.2 ± 1.5 20.1 ± 1.1 16.1 ± 1.5 14.4 ± 1.8 17.6 ± 1.9 19.8 ± 1.2 NONPL 17.6 ± 0.3 15.8 ± 0.4 - 14.2 ± 0.0 8.5 ±0.0 10.4 ± 0.0 14.1 ± 0.2 17.6 ± 0.3 8.0 ± 0.0 35.0 ± 0.0 FLO17 32.2 ± 1.3 27.2 ± 1.8 20.6 ± 1.1 35.2 ± 1.5 39.9 ± 1.3 31.6 ± 0.8 44.1 ± 0.4 32.2 ± 1.3 41.5 ± 1.543.2 ± 0.9 FLO102 15.5 ± 0.5 12.1 ± 0.4 - 24.9 ± 0.5 25.5 ± 0.6 27.2 ± 0.6 25.5 ± 1.0 15.5 ± 0.5 28.5 ± 0.8 29.9 ± 0.8 REUTERS 21.8 ± 1.4 21.8 ± 1.4 - 18.8 ± 2.418.9 ± 2.0 16
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- SSM Java项目:StudentInfo 数据管理与可视化分析
- pyedgar:Python库简化EDGAR数据交互与文档下载
- Node.js环境下wfdb文件解码与实时数据处理
- phpcms v2.2企业级网站管理系统发布
- 美团饿了么优惠券推广工具-uniapp源码
- 基于红外传感器的会议室实时占用率测量系统
- DenseNet-201预训练模型:图像分类的深度学习工具箱
- Java实现和弦移调工具:Transposer-java
- phpMyFAQ 2.5.1 Beta多国语言版:技术项目源码共享平台
- Python自动化源码实现便捷自动下单功能
- Android天气预报应用:查看多城市详细天气信息
- PHPTML类:简化HTML页面创建的PHP开源工具
- Biovec在蛋白质分析中的应用:预测、结构和可视化
- EfficientNet-b0深度学习工具箱模型在MATLAB中的应用
- 2024年河北省技能大赛数字化设计开发样题解析
- 笔记本USB加湿器:便携式设计解决方案
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功