没有合适的资源?快使用搜索试试~ 我知道了~
4976光谱特征变换在身份识别中的应用罗传臣1,3陈云涛1,3王乃艳2张兆祥1,3,41中国科学院大学2TuSimple3中国科学院智能感知与计算研究中心4中国科学院脑科学与智能技术卓越中心1{luochuanchen2017,chenyuntao2016,zhaoxiang.zhang}@ ia.ac.cn2winsty@gmail.com摘要近年来,随着深度学习技术的兴起,人的身份再识别领域取得了飞速的发展。基于深度学习的方法专注于学习判别特征空间,其中数据点根据其对应的标识被复杂地现有的方法在建立相似性结构时,大多是对数据点进行单独处理或只涉及一小部分样本。它们或多或少地忽略了样本之间的密集信息连接。缺乏全面的观察最终会导致低劣的表现。为了缓解这个问题,我们建议将整个数据批次制定为相似性图。受光谱聚类的启发,本文提出了一种新的光谱特征变换模块,以便于优化组间相似度。它不增加推理的负担,可以应用于各种场景。作为一种自然的扩展,我们进一步推导出一种轻量级的重排序方法,称为局部模糊重排序,它使得围绕探测集的底层聚类结构更加紧凑。对四个公共基准的实证研究表明了该方法的优越性。代码可在https://github.com/LuckyDC/SFT_REID 上 获得。1. 介绍人物再识别(ReID)是监控视频分析中不可缺少的组成部分给定探针,每个ReID旨在跨多个非重叠相机视图识别同一个人的图像。由于深度学习技术和大规模数据集的出现[62,64,21,55],身份识别领域发展迅速。虽然已经取得了很大的进展,但由于剧烈的姿态变化,遮挡和背景杂波,它仍然具有挑战性。基于深度学习的ReID方法专注于利用神经网络的强大功能来学习数据,图1.用不同方法建立的相似结构的说明对比和三重丢失分别关注成对(a)而我们的方法通过将数据公式化为图(c)来捕获样本之间的密集连接。犯罪特征当投影到所获得的特征空间时,期望数据点根据其标签聚集成簇。为了增强特征的类内紧性和类间可分性,近年来人们做了许多努力。除了设计量身定制的神经结构外,还提出了各种各样的损失函数。ReID中两种最常见的损失函数类型是分类损失(例如,softmax交叉熵损失)[63,10,44,43]和基于度量学习的损失(例如,三重损失和对比损失)[5,15,60]。分类损失具有很好的收敛性,但容易受到过拟合的影响。它单独处理样本,只通过分类器隐式地建立连接基于度量学习的损失显式优化了样本之间的距离。而它构建的相似性结构只涉及一对/三个数据点,忽略了其他信息样本。这会导致大量的平凡对/三元组,这可能会压倒训练过程,并最终使模型收敛缓慢。为了缓解这个问题,许多方法[40,29,27]在构建相似性结构时包含更多样本。然而,它们仍然受到所考虑的样品数量的限制,这可能会影响性能。POS阳性阴性negSFTneg(a)配对(b)三重态(c)逐群组4977受上述观察的启发,我们建议通过考虑批处理中的所有实例来捕获更多信息的结构具体来说,整个数据批被视为一个相似性图在我们的方法。图1直观地说明了这种观点.为了鼓励区别性特征的学习,我们借鉴了对输入数据的相似性图进行操作的谱聚类的启发。给定输入数据,谱聚类将它们划分为组。预期来自不同组的样本具有非常低的相似性,而同组内的样本具有高相似性。在监督学习的设置下,地面真实部分(即,标识标签)。此外,可以在深度学习方案中学习从特征导出的分组相似性。因此,目标变成优化组相似性,使得给定的分割在该情况下是最优的。然而,直接优化组相似性是不平凡的。或者,我们在导出的转移概率的指导下执行特征变换。然后对变换后的特征进行监督为了提高性能,我们进一步将模型与辅助分类分支相结合整个过程是完全可微的,只带来边际计算成本。尽管它的简单性,所提出的方法提高了性能显着强基线。此外,我们适应在线特征转换到离线后处理阶段。在正确学习的嵌入空间中,每个数据点的局部邻域中存在聚类结构。建议的局部模糊重新排名作为一个预聚类过程。 它使环境聚类结构更加紧凑,可以减少检索中的歧义。综上所述,本文有以下贡献:• 为了有效地捕获更多信息结构,我们将一批数据形成相似性图。受谱聚类的启发,提出了一种新的特征变换-提出了便于图上的组相似性的优化的形成。它不引入额外的成本的推理,并可以很容易地适应于其他需要嵌入的任务。• 一个轻量级的重新排序方法自然衍生。它使得底层的聚类结构在探测集的邻域中更加• 大量的实验验证了我们的方法的有效性在所有四个公共基准上都取得了有竞争力的表现2. 相关作品最近,随着深度神经网络的强大功能,人员重新识别取得了快速进展。最近对基于深度学习的人ReID的影响大致可以是分为两个方向。一是为个人ReID定制网络架构。除了CNN中的常见技术,如多尺度特征聚合[30]或注意力模块[22,47],量身定制的架构,还设计了用于人ReID的结构[44,42,33,53,49,11]。Sun等人[44]将特征图分成若干水平部分,并直接对其进行监督。Suh等人[42]采用子网络来学习身体部位特征,并通过双线性池层将其与外观特征融合。这些方法显式地考虑了人体的结构,以减轻遮挡或不准确检测的影响,从而提高性能。另一个方向集中于发展判别损失函数。在这个方向上有两个主要的溪流。一种是将经典的度量学习引入深度学习,例如对比损失[12]和三重损失[34]。这些方法的性能在很大程度上依赖于训练中建立的相似结构。一些作品通过引入更多信息样本进行改进[40,29,27]。另一个流改进了分类损失。中心丢失[57]规则化数据点与其对应的类中心之间的距离。大利润softmax [25]及其变体[24,50,48]对vanilla softmax交叉熵损失执行各种类型的利润。它们在人脸识别和人物身份识别方面都有很好的效果。谱聚类是一种传统的数据聚类算法。它是由Donath等人开创的。[8]并成为流行的模式识别社区,因为一些里程碑式的作品[38,28,26,46]。它以谱图理论为基础,将数据聚类问题转化为图划分问题。与K-Means相比,谱聚类不对聚类的结构做任何假设。所以它可以推广到更复杂的场景,比如交织的螺旋。最近的一些作品[16,35,45,58]试图将谱聚类与深度学习结合起来。虽然谱聚类已经得到了广泛的应用,但将其与CNN相结合用于人的再识别仍处于研究阶段。重新排序是一种后处理技术,用于细化检索结果的排序。本质上,重排序方法旨在通过局部邻居的信息来增强原始相似性度量。 早期的作品[19,31]试图探索k-倒数最近邻用于一般的图像检索。最近,Zhongetal. [65]在ReID任务中引入了重新排序技术。他们在后处理中结合了k-倒数编码的Jac-卡距离和原始特征的欧几里德距离。沿着这条线,Sarfrazet al. [33]图像对的扩展邻居之间的聚合距离以加强原始的成对距离。此外,为了利用单一特征内的多样性,Yu等人。[61]进一步融合不同子特征之间的距离。4978我图卷积网络将vanilla卷积算子推广到非欧几里德数据。由于互补性,它通常充当特征聚合组件,为了得到图上的最优聚类结果,一个直观的方法是求解最小割问题。对于两个不相交的子集A,B∈X,定义在当前的CNN框架下GCN首先作为由Kipfet al. [20]半监督分类。目前,它是一个新兴的研究方向,cut(A,B)=Σi∈A,j∈BWij.(一)电脑视觉Yan等人[59]通过图形卷积网络模拟人体骨架的动力学。Wang等人[51,52]利用GCN和等效视图非局部特征聚合来捕获卷积特征和对象建议之间的时空关系。然而,最小化vanilla cut通常会导致一个简单的解决方案,其中一个顶点与图的其余部分分离。为了避免这个问题,Shiet al. [38]建议通过其体积对每个子图进行归一化:视频,分别。GCN专注于在图中传播和转换信息,以生成更好的特征。虽然拟议的SFT模块旨在调整Ncut(A,B)=Σ切割(A,B)体积(A)+切割(A,B),(2)vol(B)监督,以指导其下面的功能的学习其中vol(A)=i∈A,j∈Xwij是从这两种方法的动机不同。与我们最相关的两个作品是[36,37]。他们都对图进行了相似性变换,以获得更好的结果。然而,在图的定义方面存在着明显的分歧。对于探测集中的每个图像,他们构建一个图,其中探测到画廊的相似性作为节点,画廊到画廊的相似性作为边。而在我们的方法中,每个节点直接对应于一个样本的特征,每个边都是去中心化的。A中的节点映射到图中的所有节点。3.2. 光谱特征变换假设X∈Rn×d是训练批的最终嵌入其中,n和d分别表示数据点的数量和嵌入向量的维数我们采用高斯函数的余弦相似度来度量样本之间的相似度形式上,亲和矩阵W的每个元素被定义为:以其端点的相似性为标准。 因此在每个mini-batch,他们需要构造几个子图,而我们将整个mini-batch视为一个单一的图,这在概念上更简单,更快。wij=exp.xT xjσ·xi<$2<$xj<$2Σ、(3)3. 方法为了从数据中捕获全面的信息,我们建议将训练批次中的数据点表示为图形。在这种情况下,我们专注于优化图上的组灵感最初是借用光谱聚类操作的相似性图的数据。其中σ是反映衰减速率随着余弦相似度的减小,现在,我们可以将小批量中所有数据点的相似性图定义为G=(X,W)。通过将W的行归一化为1,我们可以导出转移概率矩阵T:T=D−1W,(4)其中D是对角矩阵,其元素定义为我们首先简要介绍了谱聚类如di=nj=1 Wij. 实际上,T的计算可以算法及其密切相关的概念图切割节3.1。然后,我们在第 3.2 节 中 详 细 介 绍 了 所 提 出 的 光 谱 特 征 变 换(SFT)。在3.3节中,我们将所提出的特征变换扩展到后处理阶段,以进一步细化检索结果。3.1.图割与谱聚类在谱聚类的设置下,数据X={x i}i=1,.,n表示为无向图。其中,图的每个顶点对应一个数据,X 中 的 点 , 每 条 边 由 其端点之间的 相 似 性 加权wij=sim(xi,xj)。为了方便起见,我们在下面的公式中以2-集群问题为例,读者可以参考[41]了解多集群扩展。4979通过应用softmax函数来实现,亲和矩阵W上的性质σ。我们从T中可以推导出的最有趣的性质是逃逸概率P(A→A<$)。 它与从一个子图A <$X到另一个子图A<$=X−A的总转移概率成正比[26]。 在ReID任务中,子图A表示属于同一身份的样本集合。所以逃逸概率本质上是身份被错误分类的概率。换句话说,它测量逆组相似性。很明显,一个小P(A→A<$)需要强大的集群内连接,弱集群间的连接,这是所需的道具-用于谱聚类。事实上,正如[26]中所证明的,逃逸概率完全等价于Ncut度量,Ncut(A,A<$)=P(A→A<$)+P(A<$→A).(五)4980图2.提出的模型的总体架构我们采用最终的全局平均池层的输出作为图像嵌入检索。对数据批次的嵌入进行谱特征变换。随后,分类器被施加在变换后的特征上。我们还将该模型与一个额外的分类分支相结合。参数在两个分类器之间共享从这个角度来看,Ncut度量可以容易地从转移概率矩阵T导出。给定数据,传统的谱聚类的目的是寻找最佳划分w.r.t的Ncut度量。而在完全监督的设置中,地面实况分区A,A'是已知的。此外,在深度学习范例中自适应地学习可以导出转换概率矩阵T的特征在这种情况下,目标变成优化T,使得给定分区的Ncut度量最小。通过这样做,我们基本上最小化了将数据样本从A组错误分类到A组的可能性。不幸的是,直接优化转移概率是病态的。硬约束忽略了样本之间的潜在联系,这会降低性能。或者,我们利用T来指导特征X的变换,并对变换后的特征进行监督。具体地说,X′=TX,(6)其中X′表示已经经历变换的特征。随后,使用分类器对变换后的特征在这种情况下,隐式连接被考虑,并巧妙地绕过了硬约束的必要性。该方案也可以从弹簧模型的观点来理解。当顶点被优化时,弹簧(由T加权)相应地改变为了充分释放谱聚类的能力,有必要满足输入数据服从底层聚类结构的假设。换句话说,训练批次中的每个身份都必须有足够的图像。因此,我们采用Her-mans等人提出的抽样策略。[15]这在深度度量学习中无处不在。具体地,训练中的小批量包含P个身份,每个身份具有K个图像。为了进一步推动为 了 提 高 性 能 , 我 们 结 合 了 一 个 额 外 的 vanillaclassifica- tion分支,就像在许多现有的方法中一样。这两个分支与监督共享相同的分类器只有这样,我们才能保证特征的分布在光谱特征变换之前和之后对齐值得注意的是,所提出的谱特征变换仅在训练过程中应用,并且在推理期间将被丢弃。所提出的神经网络的整体架构如图2所示。3.3. 局部模糊重排序在本节中,我们进一步将所提出的光谱特征变换扩展到离线后处理阶段。给定一幅探测图像,图库中的图像根据与探测图像的余弦相似度进行排序。然后,我们收集前n个条目的特征,并对它们进行谱特征变换。最后,根据变换后特征的相似度计算出前n个由于n比图库的大小小得多,并且特征是提前提取的,因此细化过程引入的开销可以忽略不计。该扩展是基于这样的假设,即在探测图像的邻域中存在一个簇结构。当特征提取器已经在训练数据上进行了适当的训练时,如光谱特征变换的数学公式所表示的,根据它们之间的相似性,每个数据点的嵌入将被其他数据点模糊每个数据点将被移向高密度区域(即,集群中心),其具有更多的短路径。该过程相当于对探针图像的局部邻居进行聚类操作[2]。因此,它可以使聚类结构更加紧凑,缓解检索中的歧义问题此外,正如评估协议所暗示的那样,排名靠前的名单对第一名的影响更大分类分支壮举述盖GAPNx2048-dSFT分支N个图像256x128x3CNN骨干余弦相似性分类器述盖分类器共享4981(一)(b)第(1)款(c)第(1)款图3. DukeMTMC-reID上的检索示例。(a)是仅具有分类分支的模型的结果。(b)是由所提出的模型产生的(即,SFT+分类)。(c)是基于(b)使用局部模糊重新排序的最终性能。所以我们只细化前n个排名列表来平衡效率和性能增益。与基于整个测试集的k-倒数重排序相比,该重排序算法效率更高。实验表明,这种简单的操作导致显着的改善。3.4. 讨论在接下来的文章中,我们将分析我们的方法的一些吸引人的特性,这些特性有助于改进和连接到其他技术。放松假设和简化优化不是对成对相似性应用直接约束,我们的方法放松了学习目标,以优化SFT的分组变换后的SFT将特征向相应的聚类中心移动,从而增强了特征的区分度这稳定了训练过程,并最终导致更好的性能。训练多样性根据SFT的定义,小批量中的所有样本都参与运算。同一样本的变换特征不同,因为数据批次的组成在训练时会发生变化。这种期望的属性引入了大量的多样性,这有效地消除了过度拟合的风险。与扩散过程的联系扩散过程[18,1,9]和我们的SFT都基于马尔可夫过程。同时,二者在动机和实施上也存在差异在动机方面,扩散过程的目的是获得更忠实的相似性,而我们的方法的目标是学习判别特征。在实现上,扩散处理是对整个数据集进行的,而SFT是以小批量的形式处理数据。它们分别应用于亲和矩阵和特征。(a) (b)有SFT图4.亲和矩阵的可视化我们从DukeMTMC-reID中随机抽取6个身份,并将属于它们的所有图像为了澄清,样本根据其身份排列。可以看出,所提出的光谱特征变换显著抑制了不同身份之间的4. 实验4.1. 数据集为了验证所提出的方法的有效性,我们进行了广泛的实验上的四个流行的人重新识别 基准, 即, [21]第62话:我的世界,我的世界,我的世界[55]第17话就CUHK03而言,我们使用手动注释并遵循[65]中提出的协议。给定探针图像,对图库图像按余弦相似度进行排序,在生成的排序表的基础上,计算rank-1、rank-5的累积匹配特征(CMC)和平均精度(mAP),评价模型的性能。4.2. 实现细节我们采用在ImageNet [7]上预训练的ResNet-50 [14]作为我们的骨干网络。我们使用ResNet的全局平均池化层的输出为了保留更多的细粒度信息,放弃了ResNet最后阶段的下采样,这导致总步幅为16。对于MSMT17,SFT层的超参数σ设置为0.02,对于其余三个数据集,设置为0.1。对于分类器,我们遵循瓶颈设计,该设计已被许多作品证明是有效的[44]。具体而言,应用全连接层以将特征的尺寸从2048减少到512,然后进行批量归一化[17]和PReLU [13]。然后将输出进行l2归一化并馈送到损失函数中。为了提高性能,我们采用AM-Softmax [48]损失进行最终分类。在所有实验中,AM-Softmax的margin和缩放参数分别设置为在数据预处理方面,图像大小调整为256 ×128。随机水平翻转-ping和随机擦除[66]被用作数据增强。位置。在培训中,每个小批次包含16人,查询4982R-1地图R-1地图R-1地图1级准确度(%)最大平均接入点1级准确度(%)每个人有8个图像,这导致批量大小为128.随机梯度下降(SGD)的动量为0.9,应用于优化。我们总共训练了140个epoch。在前20个时期,学习率从0.001线性上升到0.1。在第80和100个历元时分别衰减到0.01和0.001。至于局部模糊重新排名,我们为Market-1501、DukeMTMC-reID和CUHK 03上的每个探针图像细化前50名排名列表。表3中报告的三个最大数据集。将所有这些组件放在一起,我们的方法的性能显着提高。图3中给出了重新评估的定性说明。很明显,当按顺序添加组件时,排名结果会有所改善。局部模糊重排序有效地纠正了错误匹配。而对于MSMT17,前150名排名列表经过细化,因为95它的图库比其他数据集大得多我们94实现基于MXNet [4]框架。934.3. 消融研究92光谱特征转换的有效性。 作为88.08487.58280 87.07886.57673.573.072.572.071.5如表1的前两行所示,一致的改进-在所有四项基准上都实现了目标。Market-1501的改善相对较小。 有910.05 0.1 0.2 0.3(a) Market-150186.0 71.00.020.05 0.1 0.2 0.3(b) dukemtmc-Reid许多人在Market-1501上几乎没有图像,例如, 16169一个人的照片不超过8在这种情况下,68平衡抽样将经常从67个相同的图像,这可能会限制改进。对于conve-66首先,我们对所有数据集采用相同的训练设置65这使得CUHK03上的基线过拟合当我们的64方法不受过拟合的影响,如前所述636575 506474 496373 486272 476171 466070 45595869 44这导致了CUHK03的显著改进。此外,我们可视化图像62 570.05 0.1 0.2 0.3(c) CUHK0368 430.05 0.1 0.2 0.3(d) MSMT76个不同的身份有和没有SFT模块。它在图4中可以很容易地观察到,不同身份之间的亲和力明显受到抑制。因此,通过我们的方法提取的特征对于人ReID更具鉴别力。值得注意的是,所提出的SFT引入了可以忽略不计的训练开销,并且没有额外的参数。在我们的设置中,它只导致0.0336 GFLOPs的计算,而骨干网络的开销是4.08 GFLOPs。相对成本不到1%。局部模糊重排序的有效性。我们还评估了我们的方法与建议的局部模糊重新排名。如表1的第4-5行中所报告的,局部模糊重新排序可以进一步显著改善性能。为了进一步阐明其有效性,我们与k-倒数编码[65]方法进行了比较。如表1中的最后两行所示,所提出的后处理在秩-1准确度方面超过了所有基准上的k-倒数编码,秩-1准确度是真实场景中最重要的度量。至于mAP,我们的后处理方法仅在CUHK03数据集上表现出优势。请注意,k-倒数编码需要大量的资源来搜索图库中所有项目的k-倒数最近邻。假设图库大小为N,k-倒数重排序的计算复杂度为O(N2logN),而LBR的计算复杂度为O(NlogN)。当画廊变大时,效率差距变得显著。这也可以通过图5.带宽σ.结合香草分类枝。 如表1中的第2行和第4行所示,与分类分支的组合导致显著的改善。我们还实现了一个由三重硬损失[15]和分类损失监督的变体。我们的方法显示出一致的优越性。我们发现三重态损失的参与甚至会略微降低MSMT17的性能。我们进一步研究了两个分支之间共享参数的必要性。如表2所示,共享版本的性能明显优于非共享版本。这是合理的,因为独立的分类器可能会优化模型的不同方向,这损害了稳定性,而训练。4.4. 参数分析超参数σ的影响。亲和函数的正确选择是光谱聚类成功的关键。因此,有必要研究σ对学习特征的影响。为此,我们将σ改变为五个不同的值,并评估在这些设置下训练的模型的性能。如图5所示,我们的方法对λ值相对稳健。每个身份K的图像数量的影响。我们研究了当改变K时性能的趋势。鉴于Market-1501和CUHK 03相对较小,R-1地图1级准确度(%)最大平均接入点1级准确度(%)最大平均接入点最大平均接入点4983变体Market-1501DukeMTMCCUHK03MSMT17地图秩-1地图秩-1地图秩-1地图秩-1仅分类分支(基线)77.391.263.982.040.644.937.366.7仅SFT分支79.691.670.485.460.266.344.771.9三联体+分类80.092.268.283.727.659.060.265.6SFT +分类82.793.473.286.962.468.247.673.6SFT +分类+LBR87.594.179.690.071.774.358.379.0SFT +分类+k-倒数90.693.583.388.368.771.760.876.1表1.针对Market-1501、DukeMTMC-reID、CUHK 03(标记)和MSMT 17数据集的消融研究。LBR表示所提出的局部模糊重排序方法。数据集非共享共享地图R-1地图R-1Market-150179.091.882.793.4DukeMTMC66.983.373.286.9CUHK0343.147.162.468.2MSMT1735.363.747.673.6表2.共享/非共享分类器的消融研究方法市场DukeMTMCMSMT17k-倒数LBR(我们的)209s41 s152秒24 s小行星11009423s表3.重新排序方法所用的时间不 能 满 足 K值 较 大 的 要 求 。 我 们 只 在 MSMT 17 和DukeMTMC-reID上进行实验。图6显示,我们的方法可以从更大的K中受益,而当K增加时,vanilla基线模型的性能甚至会下降。这一现象再次验证了我们的假设,即分组训练对于较大的minibatch更有利。因为它可以利用整个批次的整体信息来训练样本。而mAP略低于SGGNN [37]。必须强调的是,SGGNN[37]和GSRW [36]都经过LBR的改进,我们的方法明显优于他们。我们进一步用500k distractor对数据集进行了比较。结果总结于表5中。如表中所示,我们的方法对干扰项具有鲁棒性。当被100 k个干扰项干扰时,我们的方法的mAP/rank-1精度注意,在这种情况下,rank- 1准确度仍然超过90%。而对于其他四个竞争对手来说,降级比我们大得多。当增加干扰物尺寸时,性能差距甚至更显著。请注意,我们的方法仍然可以保持超过90%的rank-1的准确性时,由100 k干扰。这有力地证明了我们的方法的鲁棒性。0.870.860.850.840.830.820.810.806 8 10 12 1416K(a) dukemtmc-Reid0.760.740.720.700.680.660.640.62基线提出6 8 10 12 14 16K(b) MSMT7表4.与市场上最先进的方法进行比较图6.当K(每个身份的图像数)变化时,性能的趋势会发生变化。4.5. 与最新技术水平方法的在本节中,将所提出的方法与最先进的方法进行比较。下表中的KR和LBR分别表示k倒数重新排序和所提出的局部模糊环重新排序。Market-1501数据集。 如表4所示,我们的方法实现了com-made中最好的rank-1准确度。1501数据集。DukeMTMC-reID数据集上的结果。DukeMTMC-reID数据集的结果见表6。可以看出,我们的方法优于其他国家的最先进的显着。具体而言,我们的方法在mAP和rank- 1准确性方面分别比Mancs [47]提高了1.4%和经过LBR的改进,我们的方法甚至将rank-1的准确率提高到90.0%。CUHK03数据集的结果。 我们只做实验-Rank-1准确性基线提出Rank-1准确性方法参考Market-1501mAP R-1R-5GLAD [56]ACMMM1773.989.9-MLFN [3]CVPR1874.390.0-[22]第二十二话CVPR1875.791.2-DuATM [39]CVPR1876.691.497.1部分对齐[42]ECCV1879.691.796.9PCB [44]ECCV1877.492.397.2GSRW [36]CVPR1882.592.796.9SGGNN [37]ECCV1882.892.396.1曼克斯[47]ECCV1882.393.1-提出-82.793.497.4拟议(+KR)-90.693.596.6拟议(+LBR)-87.594.197.54984方法牵引器尺寸0100k200k500k地图秩-1地图秩-1地图秩-1地图秩-1Zheng等[63个]59.979.552岁3↓7. 6七十三。8 ↓5.7四十九1↓10. 8七十一5 ↓8. 0四十五2↓14. 768岁3↓11. 2四月[23]62.884.0五十六5 ↓6. 379岁。9↓4. 1五十三6 ↓9. 278岁2↓5. 8四十九8↓13. 075. 4 ↓8.6TriNet [15]69.184.961岁9↓7. 279岁。7↓5. 2五十八7↓10. 4七十七。9↓7. 0五十三6↓15。574岁7↓10. 2部分对齐[42]79.691.774岁2↓5. 488岁3 ↓3.4七十一5 ↓8. 186岁。6 ↓5. 167岁2↓12. 484. 1 ↓7.6提出82.793.4七十七。8↓4. 9九十9 ↓2.575. 5 ↓7.289岁。3 ↓4. 1七十一9↓10. 887岁1↓6. 3表5.与Market-1501+ 500 k数据集上的最新方法进行比较方法参考MSMT17mAP R-1R-5[55]第五十五话CVPR1823.047.665.0PDC [55]CVPR1829.758.073.6GLAD [55]CVPR1834.061.476.8提出-47.673.685.6拟议(+KR)-60.876.184.5拟议(+LBR)-58.379.085.8表8.与MSMT17数据集上的最新方法进行比较。表6.与DukeMTMC-reID数据集上的最新方法进行比较。方法参考地图CUHK03R-1R-5SVDNet [43]ICCV1737.840.9-DFL [6]ICCV1740.543.0-[22]第二十二话CVPR1841.044.4-MLFN [3]CVPR1849.254.7-[第54话]CVPR1861.666.1-提出-62.468.284.4拟议(+KR)-68.771.785.5拟议(+LBR)-71.774.385.6表7.与CUHK03数据集上的最新方法进行比较。我们坚持新提出的评价方案[65],并报告CUHK03手动标记版本的结果。在新方案下对CUHK03的手动标记子集进行了修订[65]。结果报告于表7中。可以观察到,我们的方法在比较的方法中达到了最好的性能。在mAP和秩1准确度方面,其相对于DaRe [54]的表现分别为0.8%和2.1%。MSMT17数据集的结果。由于MSMT17是最近发布的,据我们所知,没有其他已发表的工作对其进行评估。因此,我们仅将我们的方法与作者报告的基线进行比较[55]。如图所示方法参考DukeMTMCmAP R-1R-5PSE [33]CVPR1862.079.889.7[22]第二十二话CVPR1863.880.5-MLFN [3]CVPR1862.881.0-DuATM [39]CVPR1864.681.890.2GSRW [36]CVPR1866.480.788.5SGGNN [37]ECCV1868.281.188.4PCB+RPP [44]ECCV1869.283.3-部分对齐[42]ECCV1869.384.492.2曼克斯[47]ECCV1871.884.9-提出-73.286.993.9拟议(+KR)-83.388.392.0拟议(+LBR)-79.690.094.04985在表8中,我们的方法明显优于这些基线。具体而言,它在mAP和rank-1准确性方面分别超过GLAD13.6%和12.2%。这验证了我们的方法在大规模应用时的可扩展性和鲁棒性。为了阐明我们方法的优越性,我们提醒读者,GLAD [56]在Market-1501上表现得很好,如表4所示。5. 结论受谱聚类的启发,我们提出了一个新的特征变换模块,以促进识别特征的学习,它只涉及几个基本的数学运算。与大多数现有的方法相比,我们的方法将整个数据批次制定为一个相似性图来捕获潜在的关系结构。在我们的方法中,重点放在优化组间相似性上。此外,我们还将在线操作扩展到后处理阶段。该算法在探测集的局部邻域内进行预聚类,减少了检索时的模糊性。虽然它的简单,所提出的方法带来了显着的改善强基线。四个基准的消融研究证明了我们的方法的有效性和可扩展性。致谢这项工作是支持在国家重点研发&计划(2015年)2018YFB1004602)、北京市自然科学基金(No. Z181100008918010)、国家自然科学基金( No. 61836014 号 61761146004 号 61773375 号61602481)。作者非常感谢NVAIL的支持。4986引用[1] 宋白,周志超,王敬东,白翔,Longin Jan Latecki和齐天。用于检索的集合扩散。InICCV,2017. 5[2] 米格尔·卡雷拉·佩尔皮。高斯模糊均值漂移快速非参数聚类ICML,2006年。4[3] 作者:Timothy M. Hospedales和Tao Xiang。用于人员重新识别的多级分解网络。在CVPR,2018年。七、八[4] Tianqi Chen , Mu Li , Yutian Li , Min Lin , NaiyanWang,Minjie Wang,Tianjun Xiao,Bing Xu,ChiyuanZhang,and Zheng Zhang. MXNet:一个面向异构分布式系统的灵活高效的机器学习库。在NeurIPS研讨会,2016年。6[5] Weihua Chen , Xiaotang Chen , Jianguo Zhang , andKaiqi Huang.除了三重态损失:一种用于人员重新识别的深度四元组网络。在CVPR,2017年。1[6] 陈燕北,朱夏天,龚少刚。通过深度学习多尺度表示进行人员重新识别InICCV,2017. 8[7] Jia Deng,Wei Dong,Richard Socher,Li-Jia Li,KaiLi,and Li Fei-Fei. ImageNet:一个大规模的分层图像数据库。CVPR,2009。5[8] 我们多纳特和AJ霍夫曼。图划分的下界。IBM研究与开发杂志,第437-442页,1973年。2[9] Michael Donoser和Horst Bischof。再访检索的扩散过程CVPR,2013。5[10] 邢凡、魏江、罗昊、飞梦娟。Spher- eReID:基于深度超球面流形嵌入的人物身份再识别。视觉传达和图像表示杂志,60:51-58,2019。1[11] Yang Fu,Yunchao Wei,Yuqian Zhou,Honghui Shi,Gao Huang,Xinchao Wang,Zhiqiang Yao,and ThomasHuang.用于人员重新识别的水平金字塔匹配在AAAI,2019年。2[12] Raia Hadsell,Sumit Chopra,and Yann LeCun.通过学习一个不变映射来降低维数. CVPR,2006。2[13] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun. 深入研究整流器:超越人类对imagenet分类的水平。在ICCV,2015年。5[14] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习。在CVPR,2016年。5[15] 亚历山大·赫尔曼斯、卢卡斯·拜尔和巴斯蒂安·莱布。为三胞胎 的丢失辩护, 进行人员重 新鉴定。 arXiv:1703.07737,2017。一、四、六、八[16] John R Hershey,Zhuo Chen,Jonathan Le Roux,andShinji Watanabe.深度集群:用于分割和分离的判别嵌入。InICASSP,2016. 2[17] Sergey Ioffe和Christian Szegedy。批次标准化:通过减少内部协变量偏移来加速深度网络训练。ICML ,2015。5[18] Ahmet Iscen 、 Giorgos Tolias 、 Yannis Avritis 、 TeddyFuron和Ondrej Chum。区域流形上的有效扩散:用压缩cnn表示法恢复小目标。在CVPR,2017年。5[19] Herve Jegou Hedi Harzallah和Cordelia Schmid一个上下文相异度测量准确和有效的图像搜索。CVPR,2007。2[20] Thomas N Kipf和Max Welling使用图卷积网络的半监督分类。在ICLR,2017。3[21] Wei Li , Rui Zhao , Tong Xiao , and Xiaogang Wang.Deep-ReID:深度过滤配对神经网络,用于人员重新识别。InICCV,2014. 一、五[22] Wei Li,Xiatian Zhu,and Shaogang Gong.和谐的关注网络,人的再认同。在CVPR,2018年。二七八[23] 林宇天,郑良,郑哲东,吴宇,杨毅。通过属性和身份学习提高人的再识别。arXiv:1703.07220,2017年。8[24] 刘未央,温延东,余智定,李明,拉吉比丘,宋乐Sphereface:用于人脸识别的深度超球面在CVPR,2017年。2[25] Weiyang Liu,Yandong Wen,Zhiding Yu,and MengYang.卷积神经网络的大余量softmax损失。InICML,2016. 2[26] Marina Meila和Jianbo Shi。频谱分割的随机游走视图AISTATS,2001年。二、三[27] 放大图片创作者:Thomas K.Leung,Sergey Ioffe,andSaurabh Singh.没有大惊小怪的距离度量学习使用代理。InICCV,2017. 一、二[28] Andrew Y Ng、Michael I Jordan和Yair Weiss。 关于谱聚类:分析和算法。InNeurIPS,2002. 2[29] Hyun Oh Song , Yu Xiang , Stefanie Jegelka 和 SilvioSavarese。通过提升结构化特征嵌入进行深度度量学习。在CVPR,2016年。一、二[30] Xuelin Qian,Yanwei Fu,Yu-Gang Jian
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![doc](https://img-home.csdnimg.cn/images/20210720083327.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)