没有合适的资源?快使用搜索试试~ 我知道了~
基于相似性约束的多尺度融合子空间聚类网络
6658基于相似性约束的党志远1,邓成1,徐阳1,黄恒2,31西安电子科技大学电子工程学院西安2电气与计算机工程系,匹兹堡大学,PA 15260,美国3JD Finance America Corporation,Mountain View,CA 94043,USA{zydang,xyang 01}@ stu.xidian.edu.cn,chdeng@mail.xidian.edu.cn,heng. pitt.edu摘要经典的子空间聚类方法通常假设原始表格数据位于低维线性子空间的并集中。这一假设在实际应用中过于严格,极大地限制了子空间聚类的推广.为了解决这个问题,已经提出了基于深度自动编码器(DAE)的深度子空间聚类(DSC)网络,其将原始表单数据非线性地映射到适于子空间聚类的潜在空间然而,现有的DSC模型忽略了嵌入在DAE中的重要的多尺度信息,从而放弃了更有用的深度特征,导致其次优聚类结果。本文提出了一种基于相似性约束的多尺度融合子空间聚类(SC-MSFSC)网络,该网络通过一种新的多尺度融合模块学习一个更具鉴别力的自表达系数矩阵。更重要的是,它引入了一个相似度约束模块来指导融合后的自我表达系数矩阵进行训练。具体而言,多尺度融合模块被构造为生成DAE中每个卷积层的自表达系数矩阵,然后将它们与卷积核融合。相似性约束模块用于根据设计的相似性矩阵对融合后的自表达系数矩阵进行监督。在四个基准数据集上的大量实验结果证明了我们的新模型对最先进方法的优越性1. 介绍近年来,子空间聚类[33]在无监督学习中引起了广泛的研究兴趣,并被成功地应用于各种应用,如图像分割[22,36],运动分割[14,4],年龄聚类[40,5,37,38,11],基因表达微阵列聚类[24]等。子空间聚类的目的是*通讯作者。从低维子空间的并集中抽取数据,以无监督的方式进行数据分割,实际上,许多数据都具有这种性质。例如,在固定姿势、变化的照明条件和朗伯反射率下拍摄的主体的面部图像占据维度接近9的低维子空间[2,13],并且手写的单个数字的十个数字图像也形成低维子空间[10]。因此,我们可以应用子空间聚类,根据它们是否属于同一个子空间将数据分成多个组。大多数子空间聚类方法[35,3,4,19,21]依赖于原始表单数据位于低维线性子空间的并集的假设事实上,这种假设对于某些实际环境来说过于严格。例如,在人脸图像聚类中,反射率通常是非朗伯的,并且主体的姿势并不总是固定的[13]。在这种情况下,对应于同一张脸的图像不再位于线性子空间中随后,开发了基于核的方法[30,29,39],以隐式地将原始数据映射到高维空间中,期望解决非线性子空间嵌入的问题。然而,核函数及其相应的超参数的选择比较困难,更重要的是没有明确的理论保证这样的核存在[43]。凭借强大的深度学习[17],DAE已被广泛用于将数据非线性转换为无监督学习的潜在空间。基于DAE的DSC是子空间聚类领域的最新工作[13],它充分利用了生成的潜在空间,使其能够很好地适应子空间聚类,并取得了很好的效果。除此之外,根据数据的自表达属性,即数据点可以表示为同一子空间中其他数据点的线性组合,DSC [13]首先将此属性引入深度网络,并用新的自表达层代替自表达系数矩阵在DSC [43,45,42]的后续工作中,DAE仍然用于从输入数据中提取特征作为6659………………(a) DAE的不同层(b) 多尺度系数矩阵相似性约束模块,分别用于融合DAE中不同层次提取的多尺度信息,稳定训练过程。我们的主要贡献可归纳如下:• 提出了一种新的多尺度融合模块,该模块将从不同图像中提取的多尺度信息进行DAE中的不同层,这是通过堆叠从不同的自表达层提取的系数矩阵,然后在堆叠的系数矩阵上应用卷积核来融合其通道来实现的。在此之后,我们约束融合系数-图1.说明我们的想法。DAE中的每一层都可以有自己的自表达系数矩阵((a)和(b))。我们堆叠这些矩阵(c),然后通过卷积核(d)融合它们。然后,融合系数矩阵(d)可以由从相似性约束模块获得的相似性矩阵(e)上述矩阵是对ORL数据集(40类)进行实验的真实结果。我们注意到,在(b),(d)和(e)中的矩阵上存在显式的块对角结构注意,最终的谱聚类误差为2.00%。我们知道,DAE编码器中较浅的层学习更多的像素级或纹理级信息,而较深的层提取更多的语义级或抽象级信息。因此,输入数据的多尺度特征已经内在地嵌入DAE的不同层中。然而,现有的研究工作只考虑了从深层提取的浪费了大量现成但有用的深度卷积特征,它们总是实现不利的聚类性能。由于DSC只考虑最深卷积层的系数矩阵,我们认为DAE编码器中存在的每一层都应该有自己的自表达系数矩阵(见图1)。通过这种方式,嵌入在DAE中的潜在多尺度信息已被传递到相应的自表达系数矩阵。因此,如何整合这些矩阵,充分利用其自身所蕴含的多尺度信息是一个具有挑战性的问题,这对于进一步提高经典DSC网络的分簇性能至关重要.在本文中,我们提出了使用相似性约束的多尺度融合子空间聚类(SC-MSFSC)网络,该网络包含四个模块:特征提取模块、自表达模块、多尺度融合模块和相似性约束模块。特征提取模块,即DAE用于从输入数据中提取特征。自表达模块用于获得子空间聚类的自表达系数矩阵。并提出了两个新的模块:多尺度融合和具有自我表达损失和重复性的cient矩阵-能量损失• 我们引入了一个新的相似性约束模块,稳定的训练过程和监督融合的系数矩阵。在这个模块中,我们设计了一个simi-通过对每个通道的堆叠系数矩阵进行去噪然后对条目的值进行平均而获得的larity矩阵。在训练过程中,利用相似度矩阵对融合后的系数矩阵进行• 在四个基准数据集上的大量实验结果证明了SC-MSFSC相对于其他最先进方法的优越性。2. 相关工作现有的子空间聚类算法可以分为两个子问题。第一个子问题是从数据中估计亲和矩阵,第二个子问题是在亲和矩阵上应用谱聚类[28]。这两个子问题可以在一遍中顺序优化[4,20,21]或在多遍中交替优化[18,6]。在这两个子问题中,构造判别亲和矩阵更为重要。亲和矩阵的构建方式,大致可以分为三种:基于因子分解的方法[9,25],基于模型的方法[3,31]和基于自我表达的方法[4,12,19,34]。考虑到对噪声和离群值的鲁棒性,以及与其他竞争对手相比较低的计算复杂度,自表达方法在子空间聚类中更受欢迎[35]。现有的工作大多依赖于线性子空间假设,然而,如上所述,这种假设在实际问题中是不成立的。已经提出了一些工作来通过引入预定义的核矩阵(例如多项式核和高斯RBF核)来解决非线性子空间嵌入的问题[30,29,39]。然而,如何选择合适的核函数,以及核技巧产生的特征空间是否适合线性子空间聚类,都没有明确的指示。基于DAE强大的非线性映射能力,DSC网络[13]确定了一个子空间友好的la,(e)相似度矩阵去噪相似性约束通道融合(c)叠系数矩阵(d)融熔的基质6660公司简介………自我表达模块2…2…1…通道融合公司简介1…堆叠日本语简体中文LL2 21 1去噪谱聚类特征提取模块多尺度融合模块�������相似性约束模块图2.拟议网络的结构:基于相似性约束的多尺度融合子空间聚类。如图所示,我们的网络由四个模块组成:b)自表达模块,用于学习DAE中不同层的自表达系数矩阵,并使融合后的系数矩阵保持自表达特性,c)多尺度融合模块,用于获得融合后的系数矩阵,并通过自表达和重构损失d)相似性约束模块,用于从去噪的堆叠的多尺度自表达系数矩阵的平均值生成相似性矩阵,然后监督融合的系数矩阵。一旦网络被训练好,我们就对融合后的系数矩阵执行谱聚类帐篷空间,它完美地克服了线性假设的局限性。此外,DSC网络的主要贡献是设计了新的自表达层和相关的损失函数,该损失函数将数据的自表达特性建模为DAE。这个自我表达层技巧性地将自我表达系数矩阵表示为完全连接层的权重,而没有任何激活和偏差[13]。受益于这种新的层,DSC大大提高了各种数据集上的聚类性能有一些后续研究[45,43,42]来进一步改善DSC的性能。深度对抗子空间聚类[45]采用基于子空间特定GAN的对抗学习网络来监督样本的表示Zhang等人[42]提出了一种双重自监督卷积网络,利用谱聚类的结果来监督分类模块和自表达模块的学习过程。Zhou等人。[44]介绍了一种分布一致性损失来指导分布保持潜在表示的学习。将子空间聚类重新表述为分类问题,[43]将谱聚类步骤从经典DSC网络中解放出来,这是真正意义上简而言之,这些先前的工作中的大多数仅考虑通过DAE的生成的深度特征[45,42,44]或细化的自表达系数矩阵[43,42]来监督最终的聚类结果。但是,它们都忽略了嵌入在DAE不同层中的多尺度信息,浪费了大量有利于聚类的深层卷积特征。不同于现有工作时,我们提出的网络不仅监督融合的自我表达系数矩阵的相似性矩阵(这可以被视为一种自我监督机制),但也集成了多尺度信息从不同层次的DAE。此外,据我们所知,在子空间聚类领域首次尝试将多尺度信息整合到联合深度学习神经网络框架中,这也为在其他无监督学习问题中构建更具区分力的亲和矩阵奠定了基础。3. 基于相似性约束的多尺度融合子空间聚类在本节中,我们描述了我们的深度子空间聚类学习网络,名为SC-MSFSC。我们首先introduce我们的网络公式(见图2),然后提出了一个有效的算法来优化拟议的网络。具体来说,我们提出的网络由四个重要模块组成,即,特征提取模块、自表达模块、多尺度融合模块和相似性约束模块。3.1. 特征提取模块我们的SC-MSFSC的基本组成部分是特征提取模块,该模块将原始数据非线性地转换到适合子空间聚类的潜在空间中为了从DAE中提取更多的多尺度特征,采用DAE的卷积版本作为骨干6661l l lFlΣ1ˆ2网络给定输入X,可以通过编码器获得潜变量Z,然后将Z馈送到解码器以获得重构的输入数据X_n(在微调阶段,我们将CZ馈送到解码器以获得重构的输入数据,参见3.5节)。为了确保学习的潜在变量Z可以完全表示输入X,该自动编码器网络的损失函数被设置为:1X-X2.(一)在解码器中的最后的第l层之后的潜在变量矩阵Zl作为Xl 。假设编码器和解码器都具有L层,则重构损失函数(1)可以是扩展为多尺度版本:ΣLXl− Xl(三)2L其中l=1,· · ·,L。 通过多尺度重建2F损耗(3),嵌入DAE中的比例信息具有传递给潜在变量矩阵Z1。为了达到-注意,X,X ∈RN×H ×W×C,其中N,H,W和C充分利用每个潜在变量中存在的信息是输入数据分别3.2. 自我表达模块矩阵Zl,我们推广了自表达损失函数(2) 到多尺度场景。因此,我们将其表述如下:自表达模块用于获得输入潜变量Z的自表达系数矩阵,其将数据的自表达属性建模为1升Cl2L lZ −CZ(diag(C)=0)。(四)一个完全连接的层,没有任何激活和偏置[13,42,43]。当N 个数据点堆叠成一个数据矩阵Z=[z1,z2,···,zN],zi∈Rd,i=1,···,N时,自表达性质可以定义为矩阵mul-三重配方,即,Z=CZ,其中C∈RN× N是自表达系数矩阵。如[12]所示,在独立子空间假设下,如果我们用某些范数正则化C,则C将具有块对角结构,其中非零项意味着数据点zi和zj位于对于较小的l,学习的系数矩阵Cl成立,更多的像素级信息,并且相反地,对于较大的l,Cl保持更多的语义级信息。考虑到不同的系数矩阵Cl具有关于输入数据的各种信息,最好将这些矩阵Cl融合成更具鉴别力的系数矩阵CF。实际上,如何组合这些多尺度系数矩阵Cl是具有挑战性的。简单的方法是通过沿通道尺寸叠加Cl来获得CS∈RN×N×L在同一个子空间。为了获得期望的块对角系数矩阵,自表达模块的损失由正则化项和自表达项组成:C(diag(C)=0),(2)p2F然后将CS的每个条目平均(或求和),渠道维度然而,在这样的方法中,更有鉴别力的系数矩阵和更少的系数矩阵将被同等对待。因此,该解决方案不是最佳的。另一个选择是从DAE中的多尺度信息学习公共自表达系数矩阵Cc,即,Cc然而,应用更多其中,ε·εp表示任意正则化范数,e. G. 、[4,5],核范数[20,19]和Frobenius范数[12、21]。 此外,C(diag(C)=0)用于防止C=I用于稀疏诱导范数,例如 norm [5].2l F对Cc的约束可能会使训练过程不稳定,从而导致更差的聚类结果(参见表5)。事实上,最好使用卷积核-nelk对CS,CF∈RN×N的通道进行积分,1Z表示编码器之后的潜在变量矩阵。 在NNkCS,其中表示卷积运算。如果鉴于[12,21]中Frobenius范数的满意性能,因此,在我们的实验设置中,我们只采用Frobenius范数。3.3. 多尺度融合模块采用适当的核大小,由于块对角结构,CF将能够捕获每个Cl这一说法在关于ORL数据集的不同实验设置中得到了证明(见表5)。显然,CF也应该应用于自我表达的丧失(2):多尺度融合模块用于融合各卷积CF+1Z−C2F 萨格勒布2FS.T.(diag(CF)=0),(5)编码器中的层由于现有的深子空间聚类算法忽略了聚类中的多尺度信息,DAE,我们设计此模块以利用多尺度其中Z是(4)中更具区分性的一个,即、ZL.此外,我们还重写了最深层L,1<$XL−X<$L <$2,与熔融共混物的最深层L,1 <$X L − X <$L <$2相同,进一步提高DSC网络性能的信息。为了清楚起见,假设输入X在第一个l-th2高效矩阵:100万美元6662F-X第2章(6)编码器中的层作为Z1∈RN×Dl(Dl取决于ˆ2L FF当前第l层的卷积核大小),并且其中XF是当馈送CFZL时解码器的输出6663F2llF2F3.4. 相似性约束模块相似性约束模块用于监督多尺度融合模块得到的融合系数矩阵。由于自表达系数矩阵中含有噪声,会影响优化过程,因此我们设计了相似性约束损失来稳定训练,并保持系数矩阵的区分性。最近,文献[5,12,13]中采用了阈值化方法对获得的系数矩阵进行去噪,即:,给定阈值α∈(0,1),对于自表达系数矩阵的每列,我们只保留将其总和为整列总和的α的条目的值设置为我们将去噪后的堆叠系数矩阵CS表示为算法1训练SC-MSFSC网络的微调阶段,即,优化损失函数(9)。输入:输入数据,权衡参数,最大迭代T,t=1和经过预训练的DAE。1:确定多重自我表达的权重常数为10−4的层。第二章: 其中t T:3 : 从 DAE 的 不 同 层 获 得 潜 在 变 量 矩 阵 Zl ,l=l,· · ·,L4:获得多尺度自表达系数ma-通过优化重写重构损耗,从DAE的不同层获得最大的(3) 自我表达缺失(4)。第五章:将得到的多尺度自表达系数进行叠加,CS De .显然,CS De 比CS有效矩阵为CS。为了避免额外的计算,我们将6:获得融合的自表达系数矩阵CS De 作为相似性矩阵. 或少都有些CF通过在CS上应用卷积核。在阈值方法中丢失的信息,我们设置C7:通过去噪获得相似度矩阵CDeDe作为目标,并强制CF来近似它。基于这些直觉,我们提出了相似性约束损失:在CS上求平均。8:由CDe监督CF,见相似约束损失(7)。优化融合的自我表达损失(5),德 -CF2.(七)重构损失(6)约束CF。 设t =t+1。如上所述,我们希望CF处于多尺度融合模块的输出和相似性约束模块的输出之间的中间状态。有了这个损失,得到的CF不仅有稀疏的条目,但保持一些信息丢失的去噪过程中。表2中的消融研究表明,相似性约束损失9:end while输出:CF.其中L<$0=1<$L<$X-X<$l <$2+1<$XL−X<$ F<$2是成功地将CF引导到适当的中间状态。多尺度场景的修改重建损失IOS(3)和融合的自表达系数矩阵(6),L1=LClp+LCFp是正则化损失,L2=3.5. 培训设置1公升l22l<$Zl−ClZl <$F是多尺度自我表达损失,类似于[13,42],我们训练了建议的SC-MCFSCL3=1<$Z-CFZ <$2是自我表达损失,2F网络战略分为两个阶段:1)预训练堆叠的2没有自表达层的自动编码器; 2)用前面提到的所有模块训练整个网络。1) 训练前阶段。为了获得足够好的潜在变量来表示输入数据,并降低后期微调阶段的重建难度,我们在这一阶段只需要最小化重建损失(1)。系数矩阵Cl被设置为单位矩阵,这等于训练整个网络而不需要自表达层。以下是预训练阶段使用的损失函数:L前=L0,(8)其中L0=12。融合系数矩阵CF和L4=<$CDe−CF<$F是相似性约束损失(7)。λ1、λ2、λ3和λ4是上述损失函数的折衷参数。一旦网络被训练好,我们就可以使用最终的融合系数矩阵CF来构建谱聚类的亲和矩阵AF[28]。在聚类步骤之前,我们采用与以前的工作相同的启发式方法[4,12,13],以进一步增强块结构并提高最终的聚类精度。4. 实验我们的SC-MSFSC网络由Tensorflow实现2F2) 微调舞台。受益于预先训练的DAE,我们可以通过修改重建损失(1)来约束系数矩阵,即,将CZ而不是Z送入DAE的解码器。微调阶段的总损失函数为:Lfine=L0+λ1L1+λ2L2+λ3L3+λ4L4,(9)6664[1] [15]《易·系辞上》:“以德为本,以德为本以评估其性能-此外,我们在四个基准数据集上设计了广泛的实验:两个面部图像数据集,扩展耶鲁B [7]和ORL[32];以及两个对象图像数据集,COIL 20/100 [27,26]。以下基线将与我们的SC-MSFSC网络进行比较:低秩表示(LRR)[20],低秩子空间簇-6665(a)扩展的Yale B数据集(b)ORL数据集(c)COIL 20/100数据集图3.四个基准数据集损失扩展耶鲁大学B(38科目)ORLL0+L1+L2(DSC)2.6714.00L0+L1+L24.853.00L0+L1+L2+L30.293.75L0+L1+L2+L44.652.50L0+L1+L2+L3+L40.292.00表1.扩展耶鲁B和ORL的网络结构ing(LRSC)[34]、稀疏子空间聚类(SSC)[5]、核稀疏 子 空 间 聚 类 ( KSSC ) [30] 、 正 交 匹 配 追 踪 SSC(SSC-OMP)[41]、高效密集子空间聚类(EDSC)[12] 、 具 有 预 训 练 卷 积 自 动 编 码 器 特 征 的 SSC(AE+SSC)、具有预训练卷积自动编码器特征的EDSC(AE+EDSC)、深度子空间聚类网络(DSC)[13]、深度对抗子空间聚类(DASC)[45]、自监督卷积子空间聚类网络(S2 CSC)[42]和分布保持子空间聚类(DPSC)[44]。对于比较方法,我们直接引用相关论文中报道的最佳结果。每个数据集上SC-MSFSC的具体结构见表1和表6。与先前系数矩阵的索引一致,我们以降序标记解码器索引。 在DAE中,内核步幅被设置为2,激活函数是整流线性单元(ReLU)[16]。 整个网络的学习率为1 .一、0×10-3,在多尺度融合模块中信道融合卷积核的大小为3×3,权重由Glorot Uniform初始化[8]对于ORL和扩展的Yale B数据集,以及COIL数据集的所有数据。关于内核大小和初始化的不同设置的结果如表5所示。为了实现公平的计算,我们采用与DSC相同的DAE预训练权重和预定义DAE结构[13]。4.1. 在扩展的Yale B数据集上的实验扩展的Yale B数据集[7]是子空间聚类的流行基准,由38个受试者组成,每个受试者在不同照明条件下采集约64张正面人脸图像(见图3(a))。按照[13,42]中的实验协议,我们将原始人脸图像从192× 168降采样到48× 42,并测试了增加clus数量的鲁棒性表2.SC-MSFSC网络的消融研究ters,即,n∈ {10,15,20,25,30,35,38}。为了公平比较,我们采用与DSC [13]中使用的相同的网络设置,参见表1。与DSC相同的折衷参数λ1、λ2被设置为1和3。0×10n/10−2。0分别。并且剩余的参数λ3、λ4、T被设置为1,200,50+ 40 μ m。不同比较方法对不同数量受试者的聚类性能见表3。对于n个受试者的实验,我们报告了(39-n)次试验的平均和中位数聚类误差。我们观察到,我们的网络可以大大减少聚类误差最小,并在所有n种列出的比较方法中达到最低的聚类误差。 请注意,DASC [45]获得了38个受试者的1.44%聚类误差,仍然高于我们的网络结果。特别地,对于38名受试者的情况,我们的SC-MSFSC获得了0.29%的聚类误差,比表现最好的基线S2CSC提高了1.2%。此外,最佳基线S2CSC采用谱聚类的输出来监督其他模块的学习过程,在这种情况下,它仍然获得较差的性能,这意味着我们的网络真正从DAE中学习到更多有用的信息。奇怪的是,38名受试者的结果是所有n范围中最低的,其原因可能是DAE学习了所有38名受试者的特征,但对于n38例病例的每个试验,从DAE提取的多尺度特征将是不稳定的,从而导致不稳定的结果。为了进一步证明所提出的多尺度融合损失((3)-(6))和相似性约束损失(7)的有效性,我们通过一个ABLA评估了采用多尺度融合模块和相似性约束模块研究结果见表2。基线设定为实验性的结果表明,DSC的损失为 L0+L1+L2。 而第二损失L0+L1+L2在总损失函数(9)中具有相同的含义,即, 添加多尺度融合损失(除了扩展耶鲁大学BORL层内核大小通道内核大小通道编码器-15× 5 105× 5 5编码器-23× 3 203× 3 3编码器-33× 3 303× 3 3解码器-33× 3 303× 3 3解码器-23× 3 203× 3 3解码器-15× 5 105× 5 56666方法LRR LRSCSSCAE+SSC KSSC SSC-OMP 东软载波 AE+EDSCDSC1001DSC1002S2CSC1002 S2CSC1001我们的10例受试者是说22.22 30.95 10.2217.0614.4912.085.645.462.231.591.181.180.84中值23.49 29.38 11.0917.7515.788.285.476.092.031.251.091.090.7815例受试者20例受试者是说30.23 28.76 19.7518.2316.5515.169.307.672.171.731.311.300.94中值29.30 28.91 21.1716.8017.3415.2310.316.562.111.801.321.250.8525例受试者30例受试者是说37.98 30.64 28.7619.9920.4920.7511.2411.562.632.071.711.670.96中值36.82 30.31 28.5920.0020.9420.5211.0910.362.812.191.771.720.6735例受试者38例受试者是说34.87 29.89 27.5125.3327.7523.5211.6412.663.332.671.561.520.29中值34.87 29.89 27.5125.3327.7523.5211.6412.663.332.671.561.520.29表3.扩展Yale B上的聚类误差(%)最好用粗体。L3)转化为原来的损失L0+L1+L2。从表2的结果可以看出,当L_0+L_1+L_2不能提供更好的融合系数矩阵时,L_3是成功降低聚类误差和从融合系数矩阵中吸收更多信息的关键此外,L4可以在一定程度上改善性能,但这种改善是有限的,这符合其定位,即,引导融合系数矩阵。4.2. ORL数据集ORL数据集[32]由40个受试者的面部图像组成,其中每个受试者具有在不同照明条件下拍摄的10个面部图像,具有不同的面部表情(睁开/闭上眼睛,微笑/不微笑)和面部细节(眼镜/不戴眼镜)(参见图3(b))。由于人脸图像是在各种面部表情和细节下拍摄的,因此与扩展的Yale B相比,由于子空间的非线性度更高以及数据集大小更小,ORL数据集对于子空间聚类变得更具挑战性与[13,42]中的实验一致,ORL数据集的人脸图像从112× 92降采样到32× 32。ORL的具体网络结构如表1所示。 至于权衡参数,我们设置λ1= 1,λ2= 0。2,λ3= 0。2,λ4=100,T=800。我们的网络SC-MSFSC的实验结果是如表4所示。在这样一个困难的数据集上,我们提出的网络仍然比最好的基线S2CSC领先8%,这再次显示了我们的网络的优越性。由于DPSC [44]既没有对ORL数据集进行评估,也没有提供官方代码,因此,我们错过了方法ORL线圈20线圈100LRR33.5030.2153.18LRSC32.5031.2550.67SSC29.5014.8344.90AE+SSC26.7522.0843.93KSSC34.2524.6547.18SSC-OMP37.0529.8667.29东软载波27.2514.8638.13AE+EDSC26.2514.7938.88公司简介14.255.6533.62公司简介14.005.4230.96DASC11.753.6127.85S2CSC201211.252.3327.83S2CSC20110.502.1426.67DPSC–2.4624.60我们2.000.6223.90表4. ORL上的聚类误差(%),COIL 20/100。最好用粗体。DPSC的ORL结果,并将其表示为从表2中关于ORL的消融研究中可以看出,如果我们只使用多尺度损失,聚类误差仍然显著降低。第三语言的引入可能会带来更多的信息,但同时也带来了一些风险.此外,相似性约束损失L4成功地重新降低了L3带来的风险,进一步提高了最终性能,表演。第四语言在ORL和扩展耶鲁B中表现不同的原因可能是不同的大小数据集的不同导致DAE的不同表示,进而导致L0+L1+L2的不同结果。除此之外,我们还展示了在不同情况下的聚类误差多尺度、融合方法是说23.22 31.47 13.1318.6516.2214.057.636.702.171.691.141.120.88中值23.49 31.64 13.4017.7617.3414.696.415.522.031.721.141.140.78是说27.92 27.81 26.2218.7218.5618.8910.6710.272.531.751.321.290.71中值28.13 26.81 26.6617.8818.0318.5310.8410.222.191.811.341.280.62是说41.85 31.35 28.5522.1326.0720.2913.1013.283.092.651.671.621.27中值41.81 31.74 29.0421.7425.9220.1813.1013.213.102.641.691.601.316667线圈20线圈100层内核大小通道内核大小通道编码器-13 ×3155 ×550解码器-13 ×3155 ×550表5.在ORL数据集上进行了多尺度、融合方法和核初始化的不同实验设置。表6. COIL 20/100的网络结构我们的网络实现了更清晰和有区别的潜在映射,这导致了更好的聚类性能。4.3. COIL 20/100数据集上的实验为了进一步证明我们提出的网络SC-MSFSC的性能,我们还对对象图像数据集进行了一些实验:COIL20/100 [27,26]. COIL 20/100由20/100个受试者的对象图像(例如鸭子,见图3(c))组成,其中每个受试者具有在不同姿势下拍摄的72个灰度图像。由于COIL实验中DSC的原始结构在编码器中仅由一层组成,多尺度融合模块不能很好地工作,因此,我们将仅有的一个系数矩阵沿通道维进行两次叠加。注意,在这个实验中,我们初始化权重将卷积核的大小设为1,并将COIL 100数据集的卷积核大小设为9× 9。COIL 20数据集使用的权衡参数为λ1=1,λ2=150,λ3=30,λ4=100,T=50,COIL数据集(a) DSC(b)我们的图4.t-SNE可视化显示ORL数据集上自我表达矩阵的判别和内核初始化。请注意,我们在这些实验中采用了相同的权衡参数。对于多尺度部分,更多的尺度可以导致更好的每-在集群中。对于融合方法部分,3× 3大小的卷积核产生最佳性能。这些结果表明,一方面,3× 3核大小适合于融合系数矩阵和适当的核大小会影响最终的性能,另一方面,简单地增加或平均系数矩阵不能提高聚类性能。此外,我们还评估了学习公共系数矩阵Cc的方法的聚类误差,这在第3.3节中已经讨论过。如表所示,它的聚类结果甚至低于DSC的聚类结果,这证明了我们的说法的正确性。至于卷积核的初始化,我们可以说glorotuniform [8]实现了最佳性能,而正态分布似乎不适合初始化这种融合策略。为了说明我们提出的网络的有效性,我们在图4中使用t-SNE可视化[23]显示了从DSC网络和我们的SC-MSFSC获得的自表达矩阵的区分能力。结果表明,自表达矩阵的100个数据集为λ1=1,λ2=180,λ3=360,λ4=400,T=270。虽然COIL数据集采用的网络结构并不理想,但我们的SC-MSFSC仍然达到了结果令人满意,特别是在COIL 20数据集上,我们的网络产生了最好的性能,比最好的基线S2 SCN领先1.52%。这些结果也说明卷积核非常适合子空间聚类的系数矩阵,并且我们的网络成功地采用了嵌入DAE中的潜在信息。5. 结论我们提出了一种新的深度子空间学习框架,使用相似性约束的多尺度融合子空间聚类(SC-MSFSC),以充分利用DAE中嵌入 两个新模块,即,设计了多尺度融合模块和相似性约束受益于这两个模块,我们在四个基准数据集上的网络性能优于最先进的方法。确认ZD、CD、XY部分获得重点研发计划-陕西省重点产 业 创 新 链 项 目 资 助 2018 ZDXM-GY-176 和 2019ZDLGY 03 -02-01,部 分 由 国 家 重 点 研 发 计 划 资 助 2017YFE0104100 和2016YFE0200400。基线(DSC)14.00多尺度层326.75第2层、第3层12.25第1、2、32.00融合方法通用矩阵Cc16.00总和14.25是说16.501× 1核25.503× 3核2.005× 5核10.25内核初始化Glorot正常11.50随机正态42.25Glorot制服2.00随机均匀4.50人4.506668引用[1] Mart 'ın Abadi,Ashish Agarwal,Paul Barham,EugeneBrevdo,Zhifeng Chen,Craig Citro,Greg S Corrado,Andy Davis , Jeffrey Dean , Matthieu Devin , et al.Tensorflow:异构分布式系统上的大规模机器学习。arXiv预印本arXiv:1603.04467,2016。[2] Ronen Basri和David W Jacobs。朗伯反射率和线性子空间。IEEE传输模式分析马赫在-告诉。,25(2):218[3] 陈广良和吉拉德·勒曼。谱曲率聚类。国际计算机目视,81(3):317[4] Ehsan Elhamifar和Rene 'Vidal。稀疏子空间聚类。见CVPR,第2790-2797页。IEEE,2009年。[5] Ehsan Elhamifar和Rene Vidal。稀疏子空间聚类:算法、理论和应用。IEEE Trans. Pattern Anal.马赫内特尔,35(11):2765[6] 冯佳世,林周晨,徐欢,严水城。基于块对角先验的鲁棒子空间分割。在CVPR,第3818-3825页[7] Athinodoros S Georghiades , Peter N Belhumeur , andDavid J Kriegman.从少数到多数:可变光照和姿态下人脸识别的光照锥模型。IEEE传输模式分析马赫内特尔,23(6):643[8] 泽维尔·格洛特和约舒亚·本吉奥了解训练深度前馈神经网络的困难。在AIS-TATS,第249-256页[9] 阿米特·格鲁伯和亚伊尔·韦斯使用em算法的不确定性和缺失数据的多体分解。见CVPR,第1卷,第I-I页。IEEE,2004年。[10] 特雷弗·哈斯蒂和帕特里斯·西马德。手写体字符识别的模型Stat. Sci. 第54-65页,1998年。[11] Weitian Huang,Ming Yin,Jianzhong Li,and ShengliXie.基于加权k-子空间网络的深度聚类 IEEE SignalProcess. Lett. ,26(11):1628[12] 潘骥,马蒂厄·萨尔茨曼,李洪东。高效的稠密子空间聚类。在WACV,第461-468页。IEEE,2014。[13] PanJi , TongZhang , HongdongLi , MathieuSalzmann , and Ian Reid. 深 子 空 间 聚 类 网 络 。 在NeurIPS,第24-33页[14] 金谷健一通过子空间分离和模型选择的运动分割。在ICCV,第2卷,第586591. IEEE,2001年。[15] Diederik P Kingma和Jimmy Ba。Adam:随机最佳化的方法。arXiv预印本arXiv:1412.6980,2014。[16] 亚历克斯·克里热夫斯基、伊利亚·萨茨克弗和杰弗里·E·辛顿。使用深度卷积神经网络的图像网分类。在NeurIPS,第1097-1105页[17] Yann LeCun,Yoshua Bengio,and Geoffrey Hinton.深度学习nature,521(7553):436[18] Chun-Guang Li,Chong You,and Rene 'Vidal.结构化稀疏子空间聚类:一个联合亲和学习和子空间聚类框架.IEEE传输图像处理。,26(6):2988[19] Guangcan Liu , Zhouchen Lin , Shuicheng Yan , JuSun,Yong Yu,and Yi Ma.基于低秩表示的子空间结构鲁棒恢复。IEEE传输模式分析马赫内特尔,35(1):171[20] 刘光灿,林周晨,余勇。通过低秩表示的鲁棒子空间分割。在ICML,第1卷,第8页,2010中。[21] Can-Yi Lu,Hai Min,Zhong-Qiu Zhao,Lin Zhu,De-Shuang Huang,and Shuicheng Yan.通过最小二乘回归的鲁棒和高效的子空间分割。见ECCV,第347-360页。Springer,2012.[22] Yi Ma,Harm Derksen,Wei Hong,and John Wright.通过有损数据编码和压缩分割多元混合数据。IEEE传输模式分析马赫内特尔,29(9):1546[23] Laurens van der Maaten和Geoffrey Hinton使用t-sne可视化 数 据 。 Journal of Machine Learning Research , 9(Nov):2579[24] 布莱恩·麦克威廉姆斯和乔瓦尼·蒙塔纳。高维数据的子空间聚类:一种预测方法。数据最小知识发现。,28(3):736[25] 全一莫和布鲁斯A德雷珀。用于缺失数据运动分割的半非负矩阵分解。见ECCV,第402-415页。Springer,2012.[26] Sameer A Nene,Shree K Nayar,Hiroshi Murase,等.Columbia对象图像库(线圈-100)。技术报告CUCS-006-96,1996年。[27] Sameer A Nene,Shree K Nayar,Hiroshi Murase,等.Columbia对象图像库(线圈-20)。技术报告C
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 基于Python和Opencv的车牌识别系统实现
- 我的代码小部件库:统计、MySQL操作与树结构功能
- React初学者入门指南:快速构建并部署你的第一个应用
- Oddish:夜潜CSGO皮肤,智能爬虫技术解析
- 利用REST HaProxy实现haproxy.cfg配置的HTTP接口化
- LeetCode用例构造实践:CMake和GoogleTest的应用
- 快速搭建vulhub靶场:简化docker-compose与vulhub-master下载
- 天秤座术语表:glossariolibras项目安装与使用指南
- 从Vercel到Firebase的全栈Amazon克隆项目指南
- ANU PK大楼Studio 1的3D声效和Ambisonic技术体验
- C#实现的鼠标事件功能演示
- 掌握DP-10:LeetCode超级掉蛋与爆破气球
- C与SDL开发的游戏如何编译至WebAssembly平台
- CastorDOC开源应用程序:文档管理功能与Alfresco集成
- LeetCode用例构造与计算机科学基础:数据结构与设计模式
- 通过travis-nightly-builder实现自动化API与Rake任务构建
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功