没有合适的资源?快使用搜索试试~ 我知道了~
9021AD-Cluster:用于领域自适应人员再识别的翟云鹏1、2、石建路3、叶启祥4、6、单雪波1、2、陈杰1、6、冀荣荣5、6、田永红1、2、6、1北京大学电子与计算机工程学院2NELVT,北京大学电子工程与计算机科学学院,中国北京3新加坡南洋理工大学4中国科学院大学5中国厦门大学6中国鹏程实验室{ypzhai,shanxb,yhtian}@www.example.com,www.example.compku.edu.cn@shijian.lu ntu.edu.sgqxye@ucas.ac.cn,www.example.com,chenj@pcl.ac.cnrrji@xmu.edu.cn摘要领域自适应人员重新识别(re-ID)是一项具有挑战性的任务,特别是当目标域中的人员身份未知时。现有的方法试图通过跨域转移图像样式或对齐特征分布来解决这一挑战,而目标域中丰富的未标记样本没有得到充分利用。本文提出了一种新的增广判别聚类(AD-Cluster)技术,该技术估计和增广目标领域中的人簇,并利用增广的簇增强re-ID模型的判别能力。AD-Cluster通过迭代的基于密度的聚类、自适应样本扩充和区分特征学习来训练。它学习一个图像生成器和一个特征编码器,其目标是在一个对抗性最小化中最大化样本空间中的类内多样性和最小化特征空间中的③提取聚类更新图像生成器更新特征编码器替代培训一优化max方式最后,AD-聚类增加了样本聚类的多样性,大大 提高 了 re-ID模 型的 区分 能力 。在 Market-1501和DukeMTMC-reID上进行的大量实验表明,AD-Cluster的性能优于最先进的系统,具有很大的裕度。1. 介绍人物重新识别(re-ID)旨在匹配从非重叠相机网络收集的图像库尽管监督方法在人的re-ID [5][50]方面取得了令人印象深刻的进展,但由于相机配置,照明条件,人的观点的变化,在一个领域训练的模型往往无法很好地推广到其他领域*通讯作者。最大步长最小步长原始样本扩增样本簇区域图1. AD集群交替地训练图像生成器和特征编码器,其分别最大化集群内距离(即,,增加样本空间的多样性),最小化特征空间中的聚类内距离(即,减小新特征空间中的距离它以对抗性的最小-最大方式加强了re-ID模型的区分能力。(Best颜色显示)可以跨域工作的域自适应re-ID方法仍然是一个非常开放的研究挑战。[24][26][27][28][29][29022[29]第10段。UDA方法的一个主要路线试图对齐源域和目标域的特征分布[44],[26]。另一种方法利用对抗生成模型作为风格转换器Transformer,将源域的行人然后,使用样式转移的图像来训练目标域中的re-ID模型。许多UDA方法保留了跨域或相机风格的判别信息,但它们在很大程度上忽略了未标记的样本,从而忽略了目标域中的大量样本分布。最近的做法[14],[47]通过预测目标域中的伪标签来缓解这个问题。它们利用聚类(伪)标签直接进行模型微调,但通常容易受到噪声和硬样本的影响。这阻止了它们在目标域中最大化模型辨别能力。在本文中,我们提出了一种创新的增强判别聚类(AD-集群)技术领域自适应的人重新ID。AD-聚类的目的是通过交替判别聚类和样本生成来最大化目标域中的模型判别能力,如图所示。1.具体而言,基于密度的聚类首先预测目标域中的样本聚类,其中样本特征由在 源 域中 预 先 训 练 的 re-ID 模 型 提取 。 然 后 , AD-Cluster通过两个迭代过程进行学习。首先,图像生成器保持将聚类图像平移到其他相机以增强训练样本,同时保留原始伪识别标签(即,簇标签)。第二,特征编码器不断学习以最大化特征空间中的簇间距离,同时最小化簇内距离。因此,图像生成器和特征编码器以对抗的最小-最大方式竞争,迭代地估计聚类标签并优化re-ID模型。最后,AD-集群通过这种对抗性学习和优化来聚合re-ID模型的区分能力。本文的主要贡献可以概括为三个方面。首先,它提出了一种新的判别聚类方法,解决域自适应的人re-ID基于密度的聚类,自适应样本扩增,和判别特征学习。其次,设计了一种对抗性的最小最大优化策略,在提高簇内多样性的同时增强目标域中re-ID模型的识别能力。第三,它在两个广泛使用的re-ID数据集上实现了比最先进技术更显著的性能提升:Market-1501和DukeMTMC-reID。2. 相关作品虽然人重新ID已被广泛研究,从各个角度来看,我们主要审查域自适应的人重新ID的方法,这在很大程度上是由无监督域自适应(UDA)方法驱动。2.1. 无监督域自适应(UDA)域对齐。UDA定义了一个学习问题,其中源域被完全标记,而目标域中的样本为了学习目标域中的区分模式,早期的方法专注于学习源域和目标域之间的特征 / 样 本 映 射 作 为 一 种 代 表 性 方 法 , 修 正 对 齐(CORAL)[42]通过对齐源和目标分布的均值和协方差来追求最小化域偏移。最近的方法[22],[2],[28]试图通过使用生成式对抗网络(GAN)来学习像素级变换来减少域偏移。最具代表性的CYCADA [22]在像素和特征级别跨域传输样本。域不变特征。第二行UDA方法专注于寻找域不变特征空间[33],[31],[16],[30],[43],[17],[1]。为了实现这一目标-Long 等 人[30] , [19] 提 出 了 最 大 平 均 离 散 度( MMD ) , 它 将 两 个 域 的 特 征 Ganin 等 人 [17]和Ajakan等人 [1]设计了域混淆损失来学习域不变特征。Saito等人。 [39]提出通过最大化分类器输出的差异来对齐源域和目标域的分布伪标签预测。另一种UDA方法涉及通过使用预测的伪标签来学习目标域中的表示通常,该方法使用替代估计策略:预测伪标签通过使用预测的伪标签同时建模和优化模型[4],[37],[40],[54]来对样本进行分析。在深度学习时代,已为CNN设计了聚类损失,并以另一种方式联合学习特征,图像聚类和re-ID模型[8],[51],[49],[11],[24],[3],[18]。2.2. 人员身份证的UDA为了实现领域自适应的人重新识别,研究人员主要参考了上述回顾的UDA方法,通过结合人图像的特征。域对齐。在[26]中,Lin等人提出了基于最大平均离散度最小化源和目标的中间层特征的分布变化距离(MMD)Wang等人。 [44]利用额外的属性注释来对齐公共空间中源域和目标域的特征分布。其他作品通过学习一致的成对相似性分布[46]或减少域和相机之间的差异[35]来增强相机不变性。基于GAN的方法已被广泛探索用于域自适应人员重新ID [32],[61],[45],[10],[27]。HHL [61]同时增强了相机不变性和域连通性,以提高模型在目标集上的泛化能力。[10]第45话,我的朋友9023未标记样本模型重复使用基于密度的自适应样本聚类算法图2. 所提出的AD聚类的流程图:AD聚类由三个组件组成,包括基于密度的聚类、自适应样本增强和判别特征学习。基于密度的聚类估计目标域中的样本伪标签。自适应样本增强最大化了相机之间的样本多样性,同时保留了原始的伪标签。区分学习驱动特征提取器以最小化簇内距离。Ldiv表示分集损失,Ltri表示三重态损失。(Best颜色显示)ATNet [27]、CR-GAN [6]和PDA-Net [23]将带有身份标签的图像从源域转移到目标域,以学习判别模型。通过特征和/或外观的对齐,上述方法可以很好地保留来自源域的判别信息,但它们在很大程度上忽略了利用目标域中的未标记样本,这阻碍了它们最大化模型判别能力。伪标签预测。最近,关于如何利用目标域中大量未标记样本的问题引起了越来越多的关注[14],[52],[29],[47],[48],[62]。[14][57][55][15]和已经探索了图匹配[52]方法来预测用于判别模型学习的目标域中的伪标签。倒数搜索[29]和范例不变性方法[48]被提出来细化伪标签,同时考虑相机不变性。现有的方法已经探索了目标域中的簇分布。另一方面,如何准确预测硬样品的标签硬/困难样本对于区分性re-ID模型至关重要,但它们经常混淆聚类算法。我们通过迭代地生成并包括目标域中的多样性和代表性样本来解决这个问题,这有效地增强了重新ID模型3. 所提出的方法在用于人重新ID的无监督域自适应(UDA)的上下文中,我们有一个完全标记的源do-main{Xs,Ys},其在源域中总共包含Ns个具有不同身份的人物图像。 X和Y表示分别在源域中采样图像和身份,其中每个图像xs,i与身份ys,i相关联。此外,我们有一个未标记的目标域{X t},其中包含N t个人的图像。目标域中图像的标识不可用。AD集群的目标是通过利用源域中的标记样本和目标域中的未标记样本来学习在目标域中推广良好的re-ID模型。3.1. 概述AD集群由两个网络组成,包括CNN作为特征编码器f和生成对抗网络(GAN)作为图像生成器g,如图所示。2.编码器f首先使用具有交叉熵损失和三重损失的源域中的标记样本进行训练[21]。在目标域中,未标记的样本由f提取的特征表示,其中基于密度的聚类将它们分组为聚类,并使用聚类ID作为聚类样本的伪标签。在每个摄像机是具有不同风格的新域的情况下,g将目标域的每个样本转换到其他摄像机,并且这生成具有增加的多样性的身份保留样本之后,目标域中的所有样本连同所生成的样本一起被馈送以重新训练特征编码器f。因此,生成器g和编码器f以相反的最小-最大方式迭代地学习,其中g保持生成身份保留样本以最大化样本空间中的聚类内变化,而f学习区别性表示以最小化聚类内变化扩增样本1CNN2聚类跨摄像机增强GANLdivCNNL三伪标签预测3LdivL三凸轮1凸轮3凸轮6凸轮4凸轮2凸轮5原始样本最小最大优化凸轮4凸轮5凸轮2凸轮3凸轮6凸轮19024XtGXt*FLdiv特征更新修复不在特征空间中,如图所示。1.一、3.2. UDA程序源域中的监督学习:在源域中,通过优化分类和排名损失来训练基于CNN的人员re-ID模型[21]:Max-步长:最大化集群内距离(固定f)Lsrc=Lcls+ Ltri。(一)Min-步长:最小化簇内距离(固定g)对于一批样本,分类损失定义为:1Lcls= −n Σnslogp(y s,i|x s,i),(2)si=1其中,n、s、i和s分别表示批处理、图像索引和源域中的图像数量p(y s,i|x s,i)是图像x s,i属于y s,i的预测概率。等级三重损失被定义为Σns图3.提出的对抗性最小-最大学习:使用固定的特征编码器f,生成器g学习生成最大化簇内距离的样本。利用固定的生成器g,特征编码器f学习最小化集群内距离,并且Ltri=i=1[m+<$f(xs,i)−f(xs,i+)<$2-<$f(xs,i) −f(xs,i−)<$2],(三)在三重态损失的指导下最大化簇间距离。其中xs,i+表示属于与xs,i相同的个体的样本。x s,i−表示属于不同人的样本,其中x s , i。m是一个边缘参数[21]。目标域中基于密度的聚类:在每次学习迭代中,基于密度的聚类 [12]是用于伪标签预测的目标域基于密度的聚类结果假设在目标域中总共有K个相机首先训练StarGAN模型,该模型使每个相机对之间的图像-图像转换成为可能。使用学习的StarGAN模型,对于具有伪标签yt,i的图像xt,i,我们生成K增强图像{x(1),yi,i},{x(2),yi,i},.,{x(K),y t,i},t我t我t我聚类过程包括三个步骤:(1)提取─对所有人的图像进行卷积特征。(2)为所有训练样本计算具有k-倒数编码的距离矩阵[60],然后执行基于密度的聚类以将样本分配到不同的组。(3)根据训练样本Xt所属的组,将伪标签Y′赋给训练样本X t。跨相机的自适应采样增强:由于域间隙,基于密度的聚类预测的伪标签遭受噪声。此外,目标域中训练样本的数量有限,每个聚类中样本的低多样性。这两个因素使得学习目标域中的区分性表示变得困难。为了解决这些问题,我们建议用GAN来增加所使用的GAN应该具有以下两个特性:(1)从现有的人的图像生成新的人的图像,同时保持原来的身份;(2)提供额外的不变性,例如相机配置、照明条件和人物视图。为了实现这些目的,我们使用StarGAN [7]来增强人物图像,这可以在生成多种相机风格的新图像的同时保留人物身份。图像生成过程源于它们具有伪标签yt,i和xt,i以及类似的样式因为摄像机1,2,...,K,分别。这样,每个聚类中的样本数增加K−1。增强后的图像与目标域的原始图像一起用于鉴别特征学习,根据Eq。3.第三章。3.3. 最小最大优化尽管自适应样本增强增强了re-ID模型的区分能力,但样本生成过程完全独立于聚类和特征学习,这可能导致相机之间的样本多样性不足。为了将自适应数据增强与判别特征学习相融合,我们提出了一种对抗性的最小-最大优化策略,如图所示。3.具体来说,我们交替训练图像生成器和特征编码器,分别最大化每个小批量的样本多样性和最小化聚类内距离。Max-Step : Star-GAN [7] 被 用 作 给 定 特 征 编 码 器(f)的图像生成器(g)。在该过程中,定义样本与其聚类中心之间的欧氏距离之和为聚类多样性Ddiv。为XtGXt*L三特征修复更新9025¨¨对于每个样本,多样性定义为¨¨nt算法1AD聚类的训练过程输入:源域数据集S,目标域数据集T¨¨Ddiv(xt,i)=<$f(g(xt,i))−<$n1a(i,j)¨a(i,j)f(xt,i)<$输出:特征编码器f.,1:通过优化等式(1)来在S上预训练特征编码器f1.一、j=1j=1¨2(四)第二章: 对于每次聚类迭代,其中a(i,j)指示样本xt我和xt,j属于3: 提取特征F = f(T)。4:使用F.是同一个人,还是不是。 a(i,j)=1当yt,i=yt,j,否则a(i,j)=0。对于一批样本,多样性损失定义为5:对于每个小批量B BAUCT,6:Max-step:通过B训练图像生成器g。7:最小步长:通过{B,g(B)}训练特征编码器f。Ldiv= 1Σntnti=1e−λD(5)int n=08: 结束第九章: 端10:return特征编码器f其中λ是超参数。我们使用一个负指数函数来防止Ddiv变得太大,以保持增强的人图像的身份。根据Eq.4和方程式最大化集群中的样本多样性Ddiv等于最小化损失,因为arg maxDdiv惠arg min Ldiv.(六)假阳性(开始时)假阴性(在开始时)真阳性G gLdiv与StarGAN的损失相结合,以优化生成器g,同时增加样本。Min-Step:给定固定的生成器g,特征编码器f学习在三元组丢失的约束下最小化特征空间中的簇内距离,同时最大化簇间距离,其被定义为nt(a) 迭代0(b)迭代15(c)迭代30图4.通过迭代聚类过程,稀疏和不正确分布的不同身份的人的图像特征被分组到更紧凑和正确的集群。(Best以放大的彩色方式查看。)4.1. 数据集和评估指标Ltri=i=1[m+<$f(xt,i)−f(xt,i+)<$2-<$f(xt,i) −f(xt,i−)<$2],(七)的 实验 是 进行 超过 两个公共数据集Market 1501 [58]和DukeMTMC-ReID [36][59]通过使用评估指标累积匹配特征(CMC)曲线和平均平均精度(mAP)。其中,Xt,i+表示属于相同CLUs的样本特与xt,i.xt,i−表示属于不同聚类的样本,其中xt,i。m是裕度参数。具体来说,我们选择所有的阳性样本和最难的阴性样本来构建每个锚样本的三元组,其中包含一小批原始和生成的样本图像。目标函数定义为arg min Ddiv惠arg min Ltri.(八)Market 1, 501:这个数据集包含来自6个不相交的监控摄像头的1,501个身份的32,668张图像。在32,668个人物图像中,来自751个身份的12,936个图像形成训练集,来自750个身份的19,732个图像(加上多个干扰项)形成图库集,并且来自750个身份的3,368个图像形成查询集。DukeMTMC-ReID[36] [59]:该数据集是DukeMTMC的子集。它由16,522张训练图像组成f f2,228张查询图像和1,812张使用8个摄像头拍摄的身份。 在1812个身份中,当g继续用fea生产更多样化的样品时远离聚类中心的区域,f在目标区域具有更强的区分能力,如图1所示。4. 算法1示出了所提出的AD-集群的详细训练过程。4. 实验详细介绍了AD- Cluster的实现和评价.在评估过程中,消融研究,参数分析,并与其他方法的比较。不90261,404出现在至少两个摄像机中,其余408(被认为是干扰物)仅出现在一个摄像机中。4.2. 实现细节我们采用ResNet-50 [20]作为骨干网络,并使用在ImageNet [9]上预先训练的参数对其进行初始化。在训练过程中,输入图像被统一调整为256×128,传统的图像增强通过随机翻转和随机擦除来执行。为来自训练集的每个身份,大小为2569027方法杜克M TMC-reID →市场-1501市场-1501→ dukemtmc-ReidR-1R-5R-10地图R-1R-5R-10地图LOMO [25]弓[58]27.235.841.652.449.160.38.014.812.317.121.328.826.634.94.88.3UMDL [34]34.552.659.612.418.531.437.67.3PTGAN [45]38.6-66.1-27.4-50.7-PUL [13]45.560.766.720.530.043.448.516.4SPGAN [10]51.570.176.822.841.156.663.022.3骆驼[53]54.5--26.3----ATNet [27]55.773.279.425.645.159.564.224.9MMFA [26]56.775.081.827.445.359.866.324.7SPGAN+LMP [9]57.775.882.426.746.462.368.026.2[44]第四十四话58.274.881.126.544.359.665.023.0CamStyle [63]58.878.284.327.448.462.568.925.1HHL [61]62.278.884.031.446.961.066.727.2ECN [62]75.187.691.643.063.375.880.440.4UDAP [41]75.889.593.253.768.480.183.549.0AD集群(我们的)86.794.496.568.372.682.585.554.1表1.所提出的AD群集与最先进方法的比较:对于转移DukeMTMC-reID → Market-1501和Market-1501 → DukeMTMC-reID,所提出的AD-集群在所有评估指标上显著优于所有最先进的方法。前三个结果分别用粗体、斜体和下划线字体突出显示。用P = 32个随机选择的身份和K进行采样= 8(原始样本与增强样本的比率= 3:1)随机采样的图像,用于计算硬批处理三重丢失。此外,我们将margin参数设置为0.5,并使用SGD优化器来训练模型。 学习率设为6×10−5,动量设为0。9 .第九条。 整个训练过程由30个迭代的min-max聚类过程组成,每个迭代过程由70个训练时期组成。我们的网络是在PyTorch平台上实现的,并使用4个NVIDIA Tesla K80 GPU(每个都有12GB VRAM)进行训练。4.3. 与最新技术我们将AD-集群与最先进的无监督人员ReID方法进行 比 较 , 包 括 : [25][26][27][28][29][2 2 ) UMDL[34],PUL [13]和CAMEL [53]采用无监督学习;和3)九种基于UDA的方法,包括PT-GAN [45],SPGAN[10],ATNet [27],CamStyle [63],[26][27][28][29][2 [41]《易经》云:“君子之道,焉可诬也?有始有卒者,其惟圣人乎。表1显示了从Market1501 到 DukeMTMC-reID 以 及 从 DukeMTMC-reID 到Market 1501的人员Re-ID性能。如表1所示,使用手工制作的特性的LOMO和BOWUMDL [34]、PUL [13]和CAMEL [53]通过非监督学习获得图像特征,在大多数评估指标下,它们的表现明显优于LOMO和BOW。基于UDA的方法进一步提高了人的Re-ID性能,大多数情况下。具体来说,UDAP由于利用了簇在目标域中的分布,其性能要优于其他方法。特别是,ECN比大多数使用GAN的方法表现得更好,因为它强制了相机不变性和域连通性。此外,AD-Cluster的性能显着优于所有比较的方法。如表1所示,AD-集群实现了86的rank-1准确度。7%和68的mAP。百分之三对于无监督自适应DukeMTMC-reID →Mar-ket1501,其性能比最先进的(通过UDAP)高10. 9%和14. 6%,分别。对于Market 1501 → DukeMTMC-reID,AD-Cluster获得的rank-1准确度为72。6%和54的mAP。1%,比最新技术水平(根据UDAP)高出4。2%和5。1%,分别。请注意,AD群集对这两个在两个数据集之间反向调整。如表1所示,对于大多数现有方法也可以观察到这一点。我们推测这是因为DukeMTMC-reID中样本的大方差导致了更多的聚类噪声,这降低了伪标签预测的有效性并阻碍了模型自适应。4.4. 消融研究如表2所示,进行了广泛的消融研究,以评价基线、上限和下限:我们首先推导消融研究的性能上限和下限,如表2所示。具体而言,Re-ID性能的上界由受监督的9028方法杜克M TMC-reID →市场-1501市场-1501→ dukemtmc-ReidR-1R-5R-10地图R-1R-5R-10地图监督模型(上限)91.997.498.481.482.892.294.969.8直接转移46.363.871.221.328.042.949.414.2基线73.885.789.051.068.679.382.249.0基线+ASA83.393.695.762.871.581.184.252.7基线+ASA+DL86.794.496.568.372.682.585.554.1表2. AD-簇的消融研究:监督模型:使用目标域的标记训练图像训练的Re-ID模型;直接转账:使用源域的标记训练图像训练的Re-ID模型;基线:通过基于密度的聚类训练的基线Re-ID模型[12];基线+ASA:基线模型加上建议的自适应样本增强;基线+ASA+DL:基线模型加上提出的样本增强和判别特征学习。(a) 直接转移(J=0.0556)(b)基于密度的聚类(J=0.1674)(c)样本增强(J=0.2205)(d)判别学习(J=0.2555)图5.Market-1501数据集上的样本分布与不同转移技术的比较:J表示类间散布和类内散布之间的比率,J越大意味着更好的转移。(彩色效果通过使用标记的目标域训练图像训练并在目标域测试图像上评估的模型。通过使用标记的源域训练图像进行训练并在目标域测试图像上进行评估的直接传输我们可以观察到由于域转移,直接转移模型和支持模型之间的巨大性能差距以市场1501为例。监督模型的一阶精度可达91. 9%,但大幅下降至46。3%的直接转移模型,通过使用DukeMTMC-reID训练图像进行训练。此外,表2给出了基线模型的性能,基线模型是通过[41]中描述的基于迭代密度的聚类训练的传递模型。如表2所示,基线模型的性能大大优于直接传输例如,秩-1准确度从46提高。3%至73。8%,从28。0%至68。6%,分别在Market 1501和DukeMTMC-reID数据集上进行评估。这表明,在基线基于密度的聚类可以通过利用密度相关性的任何不规则分布的相同的identities的样本分组。同时,我们可以观察到,基线模型和监督模型之间仍然存在很大的性能差距,例如,从DukeMTMC-reID转移到Market 1501时,mAP下降30%自适应样本增强:我们首先评估了自适应样本增强,如第3.2.对 于 这 个 实 验 , 我 们 设 计 了 一 个 网 络 基 线+ASA,它只是将自适应样本扩增合并到基线中,通过迭代的基于密度的聚类来执行传输。如表2所示,自适应样本增加显著地改善了re-ID性能。 对于DukeMTMC-reID-Market 1501,基线+ASA实现83的等级1准确度。3%和62的mAP。8%,比基线高9. 5%和11. 8%,分别。在透视图中也可以观察到拟议样本扩增在特征空间中的样本分布,如图所示。5(c),其中包括所提出的样本扩增大大改善了样本分布,与图中所示的基于密度的聚类一致。5(b)。大的性能改善可以解释的有效性增强的样本。具体地,ID保留跨相机图像的迭代注入有助于减小同一聚类内的人图像的特征距离(即,簇内距离)并且增加不同簇的距离(即,簇间距离)。辨别学习:我们评估了第节中所述的辨别性学习成分3.3.在 这 个 实 验 中 , 我 们 设 计 了 一 个 新 的 网 络Baseline+ASA+DL , 它 进 一 步 将 判 别 学 习 结 合 到Baseline+ASA网络中,如前一小节所述如表2所示,区分学习的结合始终提高了90290.6850.68地图0.8680.866秩-10.80.70.610.80.60.6750.8640.50.40.670.6650.0050.010.030.050.10.5λ0.8620.860.0050.010.030.050.10.5λ0.40.3024681012141618202224262830迭代次数0.20024681012141618202224262830迭代次数图6.等式中的最小-最大衰减系数λ5影响mAP和rank-1准确度(在Market-1501上评估)。人员Re-ID性能超过基线+ASA。以转移DukeMTMC-reID→ Market 1501为例。基线+ASA+DL实现86的秩-1准确度。7%和68的mAP。3%,优于相应的基线+ASA3。4%和5。5%,分别。所提出的判别式的优越性能学习也可以直观地观察到在特征空间中的样本分布的角度,如图所示。第5段(d)分段。区别性学习的有效性可以在很大程度上归因于最小-最大聚类优化,该最小-最大聚类优化交替地训练图像生成器以生成更多样化的样本以最大化样本多样性,并且训练特征编码器以最小化类内距离。从另一个角度来看,可以看出,基线+ASA+DL(即,完整的AD-簇模型)分别在等级1准确性方面超过基线多达13%,在mAP 这证明了所提出的基于UDA的人Re-ID中的ID保持跨相机样本增强和判别学习的有效性。此外,我们可以观察到基线+ASA+DL的性能变得甚至接近于监督模型。例如,基线+ASA+DL对于传输实现86.7%的秩-1准确度。DukeMTMC-reID→ Market-1501,仅比相应的监督模型低5.2%。AD簇的特异性。AD集群的性能与样本生成方法有关. 在 在这项工作中,我们使用Star-GAN生成跨相机图像,理论上可以用任何其他的ID保持生成器来代替。关键是re-ID模型如何通过生成新样本来学习相机风格不变性。因此,AD簇可能受到两个因素的影响:生成样本的质量和目标域中样本分布的相机风格不变性的强度。这些差异解释了AD-集群在不同适应任务上的不同改进。4.5. 讨论等式中的最小-最大衰减系数λ5将影响保持ID的最小-最大聚类,从而影响人员Re-ID性能。我们研究了这个参数,图7.迭代最小-最大聚类在左侧伪标签预测的准确性和&右侧人员Re-ID的mAP rank-1准确性方面始终优于基于密度的聚类(对于DukeMTMC-reID →Market 1501)。到不同的值,并检查人的Re-ID性能。图6显示了Market-1501的实验结果。使用较小的λ通常导致更高的集群多样性,这进一步导致更好的Re-ID性能。另一方面,对于同一性保持的目标,λ不应该很小。实验表明,当λ = 0时,AD-Cluster的性能最好。03.我们还评估了迭代最小-最大聚类过程中预测的伪标签的准确性,以及在此过程中人的Re-ID性能如何演变。图7(左)示出了预测的伪标签的f分数在迭代聚类过程期间保持提高。此外,所提出的最小-最大聚类在mAP和rank-1准确性方面显著优于基于密度的聚类[12]7.第一次会议。5. 结论本文提出了一种用于领域自适应人员识别的增强判别聚类(AD-Cluster)方法,在基于密度的聚类中,引入了自适应样本增强以产生更多样的样本,并引入了最小-最大优化策略来学习更具判别性的识别模型。实验证明了自适应样本增加和最小最大优化对提高深度re-ID模型的分辨能力的有效性。我们的方法不仅产生了一个新的国家的最先进的UDA精度在两个大规模的基准,但也提供了一个新的见解一般UDA问题。我们期望所提出的广告集群将激发新的见解,并吸引更多的兴趣,以更好地基于UDA的识别[15]在不久的将来[56],确认这项工作的部分支持赠款来自中国国家重点研发计划项目2017YFB1002400,中国国家自然科学基金项 目 合 同 号 : 61825101 , 编 号 U1611461 , 编 号61836012号61972217。0.6830.6820.6790.6760.6750.6730.8670.8660.8650.8640.8640.862mAP-基线mAP-AD聚类秩-1-基线秩-1-AD聚类F-ADClusterF-基线地图Rank-1准确性伪标签准确度Re-ID准确度9030引用[1] HanaAjakan,PascalGermain,HugoLarochelle,Franc.领域对抗神经网络。CoRR,abs/1412.4446,2014年。[2] Konstantinos Bousmalis 、 Nathan Silberman 、 DavidDohan、Dumitru Erhan和Dilip Krishnan。无监督像素级域自适应生成对抗网络。在IEEE CVPR,第95-104页[3] Mathilde Caron,Piotr Bojanowski,Armand Joulin,andMatthijs Douze.用于视觉特征的无监督学习的深度聚类。在ECCV,2018。[4] 陈敏敏,Kilian Q. Weinberger,and John Blitzer.领域适应的联合训练。NeurIPS,第2456- 2464页,2011年[5] 陈天龙、丁少金、谢静怡、叶远、陈武扬、杨阳、周仁、王张扬。细心但多样化的人重新识别。在IEEEICCV,第8351-8361页[6] 陈燕北,朱夏天,龚少刚。用于跨域人员重新识别的实例引导上下文渲染。在IEEE ICCV,2019。[7] Yunjey Choi,Minje Choi,Munyoung Kim,Jung-WooHa,Sunghun Kim,and Jaegul Choo. Stargan:用于多域图像到图像翻译的统一生成对抗网络。在IEEE CVPR,2018年。[8] 作者:Adam Coates,Andrew Y. Ng.用k均值学习特征表示。神经网络:Tricks of the Trade - Second Edition,volume 7700,pages 561-580. Springer,2012.[9] Jia Deng,Wei Dong,Richard Socher,Li-Jia Li,KaiLi,and Fei-Fei Li. Imagenet:一个大规模的分层图像数据库。在IEEE CVPR,2009年。[10] Weijian Deng , Liang Zheng , Qixiang Ye , GuoliangKang,Yi Yang,and Jiabin Jiao.具有保留的自相似性和域不相似性的图像-图像域自适应用于人重新识别。在IEEE CVPR,2018年。[11] 放 大 图 片 作 者 : Alexey Dosovitskiy , Jost TobiasSpringenberg,Martin A. Riedmiller和Thomas Brox。使用卷积神经网络的判别式无监督特征学习。NeurIPS,第766-774页,2014年[12] Mart inEster , Hans-PeterKrie gel , Jo? r gSander ,andXiao weiXu.一种基于密度的含噪声大型空间数据库聚类发现算法。在KDD,第226-231页,1996中。[13] 范呵呵,梁铮,严成刚,杨毅。无人监管人员重新识别:聚类和微调。TOMCCAP,14(4):83:1[14] 范呵呵、梁铮、易阳。无监督个人重新识别:聚类和微调。CoRR,abs/1705.10444,2017。[15] 杨福 ,魏 运超 ,王 冠硕 ,周玉 倩, 施红 辉, 托马斯·S·煌自相似分组:一个简单的无监督跨域自适应方法的人重新识别。在IEEE ICCV,2019。[16] Yaroslav Ganin和Victor S. Lempitsky通过反向传播的无监督主适应在弗朗西斯河巴赫和David M.Blei编辑,ICML,第37卷,第1180[17] Yaroslav Ganin 、 Evgeniya Ustinova 、 Hana Ajakan 、PascalGermain 、 HugoLarochelle 、 FrancoisLa violette 、Mario Marchand和Victor S.Lempitsky神经网络的领域对抗训练。J.马赫学习. Res. ,17:59:1[18] Kamran Ghasedi , Xiaoqian Wang , Cheng Deng , andHeng Huang.生成式对抗聚类网络的平衡自定进度学习。在IEEE CVPR,2019。[19] Arthur Gretton,Karsten M. Borgwardt,Malte J. Rasch,BernhardScho¨ l k opf,andAl e xanderJ. 斯莫拉一个核心的双样本测试。J.马赫学习. Res. ,13:723[20] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习。在IEEE CVPR,2016年6月。[21] 亚历山大·赫尔曼斯、卢卡斯·拜尔和巴斯蒂安·莱布。为了 防 止 三 重 丢 失 , 进 行 人 员 重 新 鉴 定 。 CoRR ,abs/1703.07737,2017。[22] Judy Hoffman , Eric Tzeng , Taesung Park , Jun-YanZhu,Phillip Isola,Kate Saenko,Alexei A.埃弗罗斯和特雷弗·达雷尔。Cycada:周期一致的对抗性结构域适应。在ICML,第1994-2003页[23] Yu-Jhe Li,Ci-Siang Lin,Yan-Bo Lin,and Yu-ChiangFrank Wang.通过无监督姿态解缠和适应的跨数据集人员重新识别。在IEEE ICCV,2019。[24] 放 大 图 片 作 者 : Renjie Liao , Alexander G. 作 者 :Richard S.泽梅尔和拉奎尔·乌尔塔松。学习深刻的吝啬表示。在NeurIPS,第5076-5084页[25] Shengcai Liao,Yang Hu,Xiangyu Zhu,and Stan
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 利用迪杰斯特拉算法的全国交通咨询系统设计与实现
- 全国交通咨询系统C++实现源码解析
- DFT与FFT应用:信号频谱分析实验
- MATLAB图论算法实现:最小费用最大流
- MATLAB常用命令完全指南
- 共创智慧灯杆数据运营公司——抢占5G市场
- 中山农情统计分析系统项目实施与管理策略
- XX省中小学智慧校园建设实施方案
- 中山农情统计分析系统项目实施方案
- MATLAB函数详解:从Text到Size的实用指南
- 考虑速度与加速度限制的工业机器人轨迹规划与实时补偿算法
- Matlab进行统计回归分析:从单因素到双因素方差分析
- 智慧灯杆数据运营公司策划书:抢占5G市场,打造智慧城市新载体
- Photoshop基础与色彩知识:信息时代的PS认证考试全攻略
- Photoshop技能测试:核心概念与操作
- Photoshop试题与答案详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)