没有合适的资源?快使用搜索试试~ 我知道了~
基于部分的人体定位和强大表示
28982899基于额外语义的方法[13,30,40,5,11]直接利用人类解析[13,11]或姿势估计模型。els [30,40,5]作为部分定位模块,以实现更准确的人体部分定位。然而,它们的成功在很大程度上依赖于现成的人类解析或姿势估计模型的准确性。由于人体解析/姿态估计的训练数据集和人Re-ID之间存在差异,因此当行人被严重遮挡时,现成的人体解析/姿态估计模型容易出错。(3)基于注意力的方法[37,62]利用注意力机制来定位识别人体部位。通常,预测的注意力地图将大部分注意力权重分配在人体部位上,这可以帮助减少杂乱背景的负面影响。综上所述,大多数现有的遮挡Re-ID方法专注于定位有区别的人体部位,并利用局部特征来开发行人的强大表示。基于上述讨论,基于部分的表示已被证明是有效的闭塞的Re-ID问题。为了捕获准确的人体部位,直观的想法是使用身体部位检测器来检测未被遮挡的身体部位,然后匹配对应的身体部位。然而,对于身体检测器学习没有额外的注释。因此,我们建议本地化的歧视,只有身份标签的人体部位。为了实现这一目标,有以下两个主要挑战。一方面,具有不同特征(诸如颜色、大小、形状和位置)的背景增加了获得目标人的鲁棒特征的难度。直观上,同一人体部位区域的像素外观相似,但与背景像素有很大差异。因此,有必要对像素之间的相关性进行建模,以实现鲁棒的特征表示。另一方面,如图1所示,遮挡部分在不同的行人图像之间变化。由于没有人体部位的地面实况标注,仅使用身份标注难以应对行人的多样外观并自适应地定位所有未被遮挡的因此,如图1(c)所示,大多数基于注意力的方法倾向于将主要焦点放在最具歧视性的区域上。他们总是忽视其他人的部分,包括个人财产,例如,背包和手提袋,这也提供了重要线索的人重新身份。为了处理上述问题,我们提出了一种新颖的部分感知Transformer(PAT),用于通过经由Transformer编码器-解码器架构[39,2]的不同部分发现来进行被遮挡人Re-ID,该架构包括基于像素上下文的Transformer编码器和基于部分原型的Transformer解码器。在基于像素上下文的Transformer编码器中,我们采用了自注意机制来捕获完整的图像上下文信息。具体来说,我们对特征图的像素的相关性进行建模,并使用相似的外表。通过这种方式,我们可以获得像素上下文感知的特征图,这对背景杂波更鲁棒。在基于部分原型的Transformer解码器中,我们引入了一组可学习的部分原型来生成部分感知的掩码,该掩码关注于可区分的人类部分。具体而言,给定行人的特征图我们可以通过计算特征图中的所有像素与零件原型之间的相似度来期望每个部位感知掩模表示一个特定人体部位的空间分布,例如,头部或身体部位。利用部分感知掩码,可以通过加权池化从值进一步获得人体部分特征。然而,在没有部件注释的帮助下,约束这些部件原型以捕获准确的人体部件是具有挑战性的。因此,为了指导零件原型学习,我们提出了零件多样性和零件可区分性两种机制。直觉上,同一行人的不同部位特征应侧重于不同的人体部位。因此,采用零件多样性机制,增强零件特征之间的低相关性,使零件原型集中在不同的有区别的前景区域。零件区分机制是通过零件分类和三元组丢失使零件特征保持同一性区分。通过联合优化Transformer编码器和解码器,可以通过整个数据集学习部分原型。因此,我们可以实现强大的人体部位发现被遮挡的人Re-ID在弱监督的方式。我们的方法的贡献可以概括为三个方面:(1)我们提出了一种新的端到端的部分感知的Transformer通过不同的部分发现通过Transformer编码器-解码器体系结构,包括基于像素上下文的Transformer编码器和基于部分原型的Transformer解码器闭塞的人Re-ID。据我们所知,我们的PAT是第一个通过在统一的深度模型中利用Transformer编码器-解码器架构来实现被遮挡人员Re-ID的(2)为了更好地学习只有身份标签的零件原型,设计了零件多样性和零件区分性两种有效的学习机制因此,我们可以以弱监督的方式实现对被遮挡人Re-ID的鲁棒人体部位发现。(3)为了证明该方法的有效性,我们在六个标准Re-ID数据集上进行了三个任务的实验大量的实验结果表明,该方法对国家的最先进的方法表现良好。2. 相关工作在本节中,我们简要概述了与整体人Re-ID、部分Re-ID和遮挡相关2900××∈×∈人的身份证。全面的人重新识别。人员重新识别(Re-ID)旨在匹配从非重叠相机视图捕获的人员图像[7,44,54]。现有的Re-ID方法可以总结为手工制作的描述符[47,23],度量学习方法[56,20,24]和深度学习方法[ 56,20,24 ]学习方法[38,25,33,35,45,52,19,21,34,26,22]。最近的作品,利用部分为基础的功能已经实现了国家的最先进的性能,为整体的人重新识别任务。Kalayeh等人[19]用人类解析方法提取几个区域部分,并用部分级特征组装最终的区分表示。Sun等. [38]通过多个分类器均匀地划分特征图并学习部件级特征。 Zhao等人[51] Liuet al. [26]通过基于注意力的方法提取部件级特征。但是所有这些Re-ID方法都集中在匹配完整的人图像,假设行人的整个身体都是可用的。与这些方法不同的是,我们的模型可以自适应地捕捉歧视性的人的部分功能,通过Transformer编码器-解码器架构的闭塞人的重新识别任务。部分人员重新识别。 部分人Re-ID旨在将部分探针图像与整体图库图像相匹配。Zheng等 [57]提出了一种基于字典学习的局部匹配模型--模糊敏感匹配分类器(AMC),并引入了一种局部到全局的匹配模型--滑动窗口匹配,以提供互补的空间布局信息。He等人[10]提 出 了 一 种 无 重 构 方 法 , 即 深 度 空 间 特 征 重 构(DSR),其基于稀疏编码来利用重构误差。Luo等人等人[29]提出了STNReID,其结合了空间Transformer网络(RNT)和用于部分Re-ID的Re-ID网络。[37]引入可见性感知零件模型(VPM),通过自我监督感知零件区域的可见性。然而,所有这些方法都需要手动裁剪探测图像中被遮挡的目标人物手动裁剪在实践中效率不高,并且可能对裁剪结果引入人为偏差。被阻塞的人重新识别。 给定被遮挡的探测图像、被遮挡的人Re-ID旨在在不相交的摄像机中找到具有整体或被遮挡的外观的同一个人由于信息不完整和空间错位,这项任务更具挑战性Zhuo等[61]结合遮挡/未遮挡分类任务和人物ID分类任务,从图像中提取关键信息。He等人[13]重建了未被遮挡区域的特征图,并提出了一种空间背景-前景分类器,以避免背景杂波的影响。此外,姿势引导特征对齐(FGFA)[30]使用姿势地标来挖掘有区别的部分,以解决遮挡噪声。Gao等人[5]一个姿势--引导的可视部件匹配(PVPM)模型,以学习具有姿势引导的注意力的区分部件特征Wang等人[40]利用图形卷积层来学习高阶人体部位关系,以实现鲁棒对齐。虽然上述方法可以在一定程度上解决遮挡问题,但它们中的大多数严重依赖于现成的与它们不同的是,我们的模型可以通过Transformer编码器-解码器架构以弱监督的方式利用仅具有身份标签的不同部分3. 部件感知Transformer在本节中,我们将详细介绍所提出的部件感知转换器Transformer(PAT)。如图2所示,所提出的PAT主要 由 两 个 模 块 组 成 , 包 括 基 于 像 素 上 下 文 的Transformer编码器和基于部分原型类型的Transformer解码器。在这里,我们给一个简短的介绍,整个过程。首先,我们通过CNN主干获取每个行人图像的特征图。然后,我们平坦化的特征图,并进行自注意操作,以获得像素上下文感知的特征图与Transformer编码器。在获得像素上下文感知特征图之后,我们计算特征图与一组可学习的零件原型之间的相似度以获得零件感知掩模。部件特征可以进一步通过加权池化来获得,其中部件感知的掩模被视为不同的空间注意力图。最后,我们引入了零件多样性机制和零件可区分性机制来学习零件原型。3.1. 基于像素上下文的Transformer编码器具有不同特征的背景区域增加了获得目标人的鲁棒特征的难度因此,我们采用自注意机制来捕获完整的图像上下文信息。通过这种方法,我们可以获得像素上下文感知的特征图,这对背景杂波更鲁棒。在[38]之后,我们的方法使用ResNet-50 [9],没有平均池化层和全连接层作为主干,从给定图像中提取全局特征图。我们还将conv4 1的步幅设置为1,以提高特征分辨率,如[38]所示因此,大小为H W的输入图像将得到空间维度为H/16W/16的特征图,这比原始ResNet-50的特征图更大一个更大的特征图已被证明是有效的人的Re-ID。形式上,从骨干提取的特征图表示为ZRh×w ×c,其中h,w,c分别是高度,宽度和通道的全局特征图我们首先利用11卷积将特征图Z的通道维度降低到更小的维度d,从而创建新的特征图FRh×w ×d。变压器编码器需要一个一维序列作为输入。敬韩-dle 2D特征图,我们将F转换为一维,得到hw×d特征。 在29012902我∈∈i=1∈·{p }∈ ∈∈∈∈LL我J我我i=1i jj原型学习只与身份标签。通过这种方式,我们可以以弱监督的方式实现鲁棒的人体部位发现首先,我们介绍了一套零件原型,而且可以得到免费的R1×d. 然后,采用两个全连接层最终零件特征公式化为:类型PK={pi}K,pi R1×d表示部分分类器attfpart=FFN(fpart),(10)其确定特征图F的像素是否为长到第一部分。这些部件原型被设置为可学习的参数自我关注层。遵循Transformer的标准架构,我们首先使用自我关注机制来进一步将人体部件的局部上下文纳入部件原型。该过程允许在零件原型类型学习期间在原型之间传播局部上下文实现与第3.1节相同,键、查询和值都来自部件原型。我们可以获得更新后的零件原型集其中i1,2,. . .,K和FFN()表示前馈网络,如等式(1)所示。(五)、由于不存在人类部分注释,所以部分原型学习倾向于集中于相同的辨别性部分(例如,身体),这可能导致次优的解决方案。因此,为了学习只有身份标签的零件原型,我们提出了零件多样性和零件可区分性两种机制。(1)零件多样性机制是使零件原型集中在不同的可区分的前景零件上。多样性损失是为了扩大差异attK. 自我注意力的权重编码了关系,.Kii=1在不同的零件特征f部分:零件原型pi和pj之 间 的 关 系。更新部分原型结合了不同部分的本地上下文。交叉注意层。交叉注意力层的目标是Ldiv=1克朗ii=1好吧fpart,fpart(11)FF从特征图中提取前景部分特征喜欢可学习的零件原型。如图所示,K(K−1)i=1,j=1i部分ji2 部分J2图2,在交叉注意力层中,给定特征图Fatt=[f att; f att;. . . ; f att],queries arise from partpro-第j个原型对相同的前向给予高关注权重12小时totypes{patt}K,键和值都是从在这一点上,“大”字是“大”字,“大”字是“大”字。特征图。从形式上讲,Qi=pattWQ,Kj=fattWK,Vj=fattWV,(7)其中i1,2,. . . ,K,j1,2,. . . ,hw,和WQRd×dk、WKRd×dk、WVRd×dv是线性投影。选项。 注意,它们与Eq不同。(三)、 为每个类型来适应性地调整自己。(2)该部分描述了-失效机制是使零件特征保持可区分的同一性。零件分类和三元组损失被用来指导零件特征表示学习,如在Eq.其中cls()和tri()的定义可以在等式(12(六)、零件原型部分,我们说明了如何计算零件感知掩码和相应的零件特征。从形式上讲,Ldis=λclsKi=1.Lcls部分我+λtriKi=1.L三部分我exp(β)QiKT部分(十二)mi,j=0√hwj=1i、jexp(βi,j),βi,j=j,(8)DK在三重丢失中,来自不同身份的部分特征fi形成负对,来自相同身份的部分特征fi形成正对。因此,从其中dk是缩放因子。 注意力权重mi,j同一个原型不同的身份被推开表示空间特征fatt是-并获得身份鉴别部位特征第一部第1集The Foreground Part I 注意力权重组成部件感知掩码Mi=[mi,1; mi,2;. . . ; mi,hw],其在属于部分i的像素处具有高响应值。我们可以通过加权池化进一步获得第i个部分特征,加权池化被定义为所有值的加权和:3.3. 训练和推理对于被遮挡的人Re-ID任务,我们提出的PAT通过最小化具有如等式中定义的身份标签的总体目标来训练。(十三)、LPAT=LEn+Ldiv+Ldis,(13)fpart=Att(Qi,K,V)=hwFF.√2903Fmi,jVj,(9)在 测试阶段,对于每个不可见身份的图像,我们将全局特征fg和部分特征j=1通过计算所有零件原型,我们可以获得K部分感知掩码(每个掩码是一个h×w注意力图),.部分我Ki=1 作为其代表:产品中心进一步得到K部分特征,如图2所示。 我们v=f,f1,···,fK.(十四)实施等式(9)具有多头关注机制其中[·]表示级联操作。2904××4. 实验在本节中,我们首先验证了我们提出的模型对被遮挡人Re-ID,部分Re-ID和整体Re-ID的有效性。然后,我们报告了一组消融研究,以验证每个组件的有效性最后,我们提供了更多的可视化结果。4.1. 数据集和评估为了证明我们的方法的有效性,我们对两个遮挡数据 集 进 行 了 广 泛 的 实 验 : Occluded-Duke [30] 和Occluded REID [30],两个部分Re-ID数据集:Partial-REID [57]和Partial-iLIDS [55],以及两个整体Re-ID数据集:Market-1501 [53]和DukeMTMC-reID [32,58]。详情如下。Occluded-Duke[30]包含15,618张训练图像,17,661张图 库 图 像 和 2 , 210 张 隐 藏 查 询 图 像 。 它 是 从DukeMTMC-reID中选择的,保留被遮挡的图像并过滤掉一些重叠的图像。Occluded-REID[61]是由移动摄像机捕获的被遮挡的人数据集,包括属于200个身份的2,000张图像。每个身份有五个全身人的图像和五个被遮挡的人的图像,具有不同的视角和不同类型的严重遮挡。Partial-REID[57]是一个专门设计的部分人Re-ID基准,包括来自60人的600张图像,每个人的图库集中有5张全身图像,查询集中有5张部分图像。Partial-iLIDS[10]是基于iLIDS数据集[55]的部分人Re-ID数据集,包含机场多个摄像头捕获的来自119人的共238张图像,其遮挡区域被手动裁剪。Market-1,501由6台摄像机捕获的1,501个身份组成。训练集由751个身份的12,936张图像组成,查询集由3,368张图像组成,图库集由19,732张图像组成。DukeMTMC-reID[32,58]包含由8台摄像机捕获的1,404个身份的36,411张图像。训练集包含16,522幅图像,查询集由2,228幅图像组成,图库集由17,661幅图像组成。评价我们采用大多数人Re-ID文献中的标准度量,即累积匹配特征(CMC)曲线和平均精度(mAP),以评估不同Re-ID模型的质量。4.2. 实现细节我们采用在ImageNet上预训练的ResNet-50 [9]作为我们的骨干,删除了全局平均池(GAP)层和全连接层。对于分类器,如[28]中所示,我们使用批量归一化层[17]和全连接层,然后是softmax函数。零件原型的数量K在Market-1501上设置为6,在所有其他数据集上设置为14。 图像大小调整为256128并通过随机水平翻转、填充表1.与最新技术水平的Occluded-Duke和Occluded-REID的性能比较。我们的方法在两个遮挡数据集上实现了最佳性能。方法闭塞公爵闭塞-REID秩-1地图秩-1地图部分对齐[51]28.820.2--PCB [38]42.633.741.338.9[36]第三十六话36.9---FD-GAN [6]40.8---AMC+SWM [57]- -31.227.3DSR [10]40.8 30.472.862.8SFR [12]42.3 32--Ad-Occluded [16]44.532.2--FPR [13]--78.368.0PVPM [5]4737.770.461.2PCFA [30]51.437.3--GASM [11]-74.565.6HOReID [40]55.143.880.370.2ISP [60]62.852.3--PAT(我们的)64.553.681.672.110像素,随机裁剪和随机擦除[59]。在遮挡REID和部分数据集上采用额外的颜色抖动,以避免域方差。批量大小设置为64,每人4张图像。在训练阶段,所有模块联合训练120个epoch。学习率初始化为3。510−4,衰减到0。1和0的情况。01,40和70个时期。4.3. 与现有技术方法的闭塞Re-ID数据集的结果。 表1显示了我们的模型和以前的方法在两个遮挡数据集上的性能。共有四种方法,分别是基于手工分割的Re-ID方法[51,38]、具有关键点信息的整体Re-ID方法[36,6]、部分ReID方法[57,10,12]和遮挡Re-ID方法[ 57,10,12]。ReID方法[13,5,30,11,40,60]。 在Occluded-Duke和Occluded-REID数据集上,我们的方法的Rank-1/mAP分别达到64.5%/53.6%和81.6%/72.1%,这创下了新的SOTA性能。与手工制作的基于拆分的方法PCB[38]相比,我们的PAT超过了+21。一品准确率9%,+19。Occluded-Duke数据集上的9%mAP。这是因为我们的PAT显式地学习了部分感知掩码,以抑制来自遮挡区域的噪声信息。可以看出,这只手-基于分割的Re-ID方法和具有关键点信息的整体方法在两个遮挡数据集上具有相似的性能。例如,PCB [38]和FD-GAN [6]都在Occluded-Duke数据集上实现了约40%的Rank-1评分,表明-形成可能不会显著有益于被遮挡的Re-ID任务。 与PVPM和HOReID相比,这两种SOTA遮挡ReID方法具有关键点信息,我们的方法实现了更好的性能,超过它们至少+9。一品准确度4%,+9。8%的mAP2905DCPS表2.在Partial-REID和Partial-iLIDS数据集上与最新技术进行性能比较我们的方法达到了最佳效果。方法部分REID部分iLIDS秩-1Rank-3秩-1Rank-3AMC+SWM [57]37.3 46.021.0 32.8DSR [10]50.7 70.058.8 67.2SFR [12]56.9 78.563.9 74.8[29]第二十九话66.7 80.354.6 71.3VPM [37]67.7 81.965.5 74.8PCFA [30]68.0 80.069.1 80.9AFPB [61]78.5-- -PVPM [5]78.3 87.7- -FPR [13]81.0-68.1-HOReID [40]85.3 91.072.6 86.4PAT(我们的)88.092.376.588.2闭塞杜克数据集。这是因为它们的性能严重依赖于现成的姿势估计模型的准确性,而我们的方法可以在统一的深度模型中捕获更准确的人体部位信息。此外,我们的PAT也优于方法与掩码学习策略,包括GASM和ISP,这表明我们的Transformer编码器-解码器架构和两个学习机制的有效性部分数据集的结果。为了进一步评估我们的方法,我们将Partial-REID和Partial-iLIDS数据集上的结果与现有的最先进的方法进行了比较。像以前的一些方法[37,13,5,40]一样,由于两个部分数据集太小,我们在Market-1501训练集上训练我们的模型,并使用两个部分数据集作为测试集。因此,它也是一个跨域设置。 如表2所示,我们的方法在Partial-REID和Partial-iLIDS数据集上的Rank-1/Rank-3分别达到88.0%/92.3%和76.5%/88.2%,优于所有以前的部分人Re-ID模型。这表明表3.与Market-1501和DukeMTMC-reID数据集上最先进方法的性能比较方法Market-1501dukemtmc-Reid秩-1地图秩-1地图PCB [38]92.377.481.866.1[第28话]94.185.786.476.4MGN [41]95.786.988.778.4VPM [37]93.080.883.672.6IANet [15]94.483.187.173.4CASN+PCB [31]94.482.887.773.7CAMA [46]94.784.585.872.9MHN-6 [3]95.185.089.177.2SPReID [19]92.581.384.471.0DSA-reID [50]95.787.686.274.3P2Net [8]95.285.686.573.1PCFA [30]91.276.882.665.5HOReID [40]94.284.986.975.6FPR [13]95.486.688.678.4PAT(我们的)95.488.088.878.2PCB,因为手工制作的分割太粗糙,无法很好地对齐人体部位此外,建议的PAT是优于那些与外部线索的方法。特别是,与姿势引导的遮挡Re-ID方法HOReID[40]相比,我们的PAT显著超过+3。市场-1501的1%mAP,而超过它+2。6%mAP上DukeMTMC-reID,这表明所提出的零件原型学习机制的有效性基于额外语义的方法在很大程度上依赖于用于人对齐的外部线索,但是在严重遮挡的情况下,它们不能总是推断出准确的外部线索。上述结果也证明了可学习的零件原型对不同的视图、姿态和遮挡是鲁棒的。4.4. 消融研究所提出的PAT能够可靠地解决遮挡问题。与最具竞争力的方法HOReID [40]相比,我们的PAT显著超过它+2。在Partial-REID上有7%的Rank-1准确度,而超过它的是+3。在Partial-iLIDS上的Rank-1准确率为9%,这证明了我们所提出的模型的有效性。整体Re-ID数据集的结果。我们还对包括Market-1501和DukeMTMC-reID在内的整体人Re-ID数据集进行了实验。我们将我们的方法与三类最先进的方法进行比较,结果如表3所示。第一组中的方法是手工制作的基于分割的模型。第二组方法是基于注意力的方法。第三类方法是基于语义的方法。从结果中,我们可以看到,所提出的PAT在两个数据集上都具有最先进的竞争力。具体来说,我们的方法在Market-1501和DukeMTMC-reID 数 据 集 上 的 Rank-1/mAP 分 别 达 到95.4%/88.0%和88.8%/78.2%我们的PAT性能优于手工制作的基于拆分的模型在本节中, 我们对心脏使用Occluded-Duke数据集分析PAT的各个组件,包括基于像素上下文的Transformer编码器()、基于部分原型的Transformer解码器的自注意层()和交叉注意层()以及部分多样性机制()。零件不可区分性机制是使零件特征保持可区分性的机制,它是我们模型的基础。我们重新定义了所有模块,并将ResNet-50与平均池设置为我们的基线,其中只有全局功能可用。结果示于表4中。Transformer编码器的有效性。如index-2所示,与基线模型相比,当仅采用编码器并且仅使用全局特征fg时,性能提高了+7。1%mAP。这是因为编码器的自注意机制能够很好地捕捉像素上下文信息 从index-3和index-5中,我们还可以看到,使用编码器,性能提高了+0。8%mAP,因为像素上下文感知特征对背景杂波更鲁棒29062907引用[1] 吉米·雷·巴,杰米·瑞恩·基罗斯,杰弗里·E·辛顿.层归一化。arXiv预印本arXiv:1607.06450,2016年。[2] 尼古拉斯·卡里昂、弗朗西斯科·马萨、加布里埃尔·辛纳伊夫、尼古拉斯·乌索尼尔、亚历山大·基里洛夫和谢尔盖·扎戈鲁伊科。使用变压器的端到端对象检测。在ECCV,第213-229页[3] Binghui Chen,Dengdu Deng,and Jiani Hu.混合高阶注意网络用于人物再识别。在ICCV,第371-381页[4] 邢凡、罗昊、张轩、何凌霄、张迟、魏江。Scpnet:用于联合整体和部分人员重新识别的空间通道并行网络。在亚洲计算机视觉会议上,第19-34页Springer,2018年。[5] 尚高,王静雅,陆沪川,刘子墨基于位姿引导的遮挡人可见部位匹配。在CVPR中,第11744-11752页[6] 葛一笑,李卓万,赵海宇,尹国军,易帅,王晓刚,等.Fd-gan:姿势引导的特征提取gan,用于稳健的人员重新识别。在NeurIPS,第1222-1233页[7] 龚少刚和陶香。人员重新识别。 行为的视觉分析,第301-313页。Springer,2011.[8] 郭建元,袁玉辉,黄朗,张超,姚金戈,韩凯.超越人体部分:双重部分对齐表示的人重新识别.在ICCV,第3642-3651页[9] 何开明,张翔宇,任少卿,孙健。用于图像识别的深度残差学习。在CVPR中,第770-778页[10] 何凌霄,梁健,李海青,孙振安。用于部分人重新识别的深度空间特征重建:无对齐方法。在CVPR中,第7073-7082页[11] 凌霄鹤和五柳。拥挤场景中用于人员再识别的引导显著性特征学习。在ECCV,第357-373页[12] 何凌霄,孙振安,朱宇浩,王云波。识别部分生物特征。arXiv预印本arXiv:1810.07399,2018。[13] 何凌霄,王颖刚,刘武,赵贺,孙振安,冯佳世。前景感知金字塔重建,用于无障碍遮挡人员重新识别。在ICCV,第8450-8459页[14] 亚历山大·赫尔曼斯,卢卡斯·拜尔,巴斯蒂安·莱布。为了保护三重丢失的人重新识别。arXiv预印本arXiv:1703.07737,2017。[15] 侯瑞兵、马炳鹏、洪畅、顾新谦、单世光、陈西林。用于人员重新识别的交互和聚合网络。在CVPR中,第9317- 9326页[16] Houjing Huang,Dangwei Li,Zhang Zhang,XiaotangChen,and Kaiqi Huang.用于人员重新识别的不利遮挡样本在CVPR中,第5098-5107页[17] 谢尔盖·约菲和克里斯蒂安·塞格迪。批量归一化:通过减少内部协变量偏移来加速深度网络训练。arXiv预印本arXiv:1502.03167,2015年。[18] 姜空柱、张天柱、张永东、凤舞、永锐。非监督跨域人员重新识别的自监督代理学习。IEEE Transactions onImage Processing,29:8549[19] MahdiMKalayeh 、 EmrahBasaran 、 MuhittinGokmen 、Mustafa E Kamasak和Mubarak Shah。人的语义分析,用于人的重新识别。在CVPR中,第1062- 1071页[20] Martin Koestinger,Martin Hirzer,Paul Wohlhart,PeterM Roth,and Horst Bischof.基于等价约束的大规模度量学习。在CVPR,第2288-2295页[21] Wei Li,Xiatian Zhu,and Shaogang Gong.和谐的关注网络,人的再认同。在CVPR中,第2285-2294页[22] 李耀宇,张天柱,段凌宇,徐长生。用于图像生成和人员重新识别的统一生成对抗框架。第26届ACM国际多媒体会议论文集,第163-172页,2018年[23] 廖胜才、杨虎、朱翔宇、李志忠。通过局部最大发生表示和度量学习进行个体再识别。在CVPR中,第2197-2206页,2015年。[24] Shengcai Liao and Stan Z Li.有效的psd约束非对称度量学习用于人员再识别。在ICCV,第3685-3693页[25] Jinxian Liu,Bingbing Ni,Yichao Yan,Peng Zhou,Shuo Cheng,and Jianguo Hu.提出可转让人的重新身份证明。在CVPR中,第4099-4108页[26] Xihui Liu,Haiyu Zhao,Maoqing Tian,Lu Sheng,JingShao , ShuaiYi , JunjieYan , andXiaogangWang.Hydraplus-net:用于行人分析的细致深入功能。在ICCV,第350-359页[27] 闫璐、吴跃、刘斌、张天柱、李宝璞、齐楚、虞能海。跨模态人员重新识别与共享特定功能转移。在CVPR中,第13379[28] 罗昊,顾友志,廖星宇,赖申奇,姜伟。袋的技巧和一个强大的基线,为深入的人重新识别。在CVPR研讨会,2019年。[29] 罗昊、魏江、邢凡、赤章。Stnreid:具有成对空间变换器网络的深度卷积网络,用于部分人员重新识别。IEEE Transactions on Multimedia,2020。[30] 苗嘉旭,吴宇,刘平,丁宇航,杨毅。用于遮挡人重新识别的姿势引导特征对准。在ICCV,第542-551页[31] Xuelin Qian,Yanwei Fu,Tao Xiang,Yu-Gang Jiang,and Xiangyang Xue.基于领导者的多尺度注意力深度结构 用 于 人 员 再 识 别 。 IEEE Transactions on PatternAnalysis and Machine Intelligence,42(2):371-385,2019。[32] Ergys Ristani , Francesco Solera , Roger Zou , RitaCucchiara,and Carlo Tomasi.业绩计量和数据集2908多目标多摄像头跟踪在ECCV,第17-35页,2016年。[33] M Saquib Sarfraz ,Arne Schumann ,Andreas Eberle,and Rainer Stiefeldings.一种姿态敏感的嵌入,用于扩展交叉邻域重新排序的个人重新识别。在CVPR,第420-429页[34] 宋春风,黄燕,欧阳万里,王良。面具引导的对比注意模型在人再识别中的应用。在CVPR中,第1179-1188页[35] 苏迟、李佳宁、张世良、邢俊良、高文、齐天。用于个人重新识别的姿势驱动的深度卷积模型。在ICCV,第3960-3969页[36] 苏玉敏,王敬东,唐思宇,陶梅,李基木。用于个人重新识别的部分对齐双线性表示。在ECCV,第402-419页[37] Yifan Sun,Qin Xu,Yali Li,Chi Zhang,Yikang Li,Shengjin Wang,and Jian Sun. 感知关注点:学习感知能力的部分级别特征,用于部分人员重新识别。在CVPR中,第393-402页[38] 孙一凡、郑亮、杨一、齐天、王胜金。超越部分模型:使用细化的部分池(和强大的卷积基线)进行人员检索。在ECCV,第480-496页[39] Ashish Vaswani, Noam Shazeer , Niki Parmar , JakobUszko-reit , Llion Jones , Aidan N Gomez , JakukaszKaiser , and Illia Polosukhin. 你需 要的 只是 关注 。在NeurIPS,第5998-6008页[40] Guan高阶信息问题:学习关系和拓扑结构,用于遮挡人员重新识别。在CVPR中,第6449-6458页[41] Guanshuo Wang , Yufeng Yuan , Xiong Chen , JiweiLi,and Xi Zhou.学习具有多个相似性的判别特征用于人的重新识别。第26届ACM国际多媒体会议论文集,第274-282页,2018年[42] 王贯基于联合像素和特征对齐的rgb-红外跨模态个人识别在ICCV,第3623-3632页[43] Guan'an Wang , Tianzhu Zhang , Yang Yang , JianCheng , Jianlong Chang , Xu Liang , and Zeng-GuangHou.用于rgb-红外人员再识别的跨模态成对图像生成。在AAAI,第12144-12151页[44] 熊飞,郭梦然,奥克塔维亚,马里奥·斯奈尔.使用基于核的度量学习方法的人员重新识别。在ECCV,第1-16页[45] 徐静,赵睿,朱峰,王华明,欧阳万里。用于人的再识别的注意感知合成网络。在CVPR中,第2119-2128页[46] Wenjie Yang,Houjing Huang,Zhang Zhang,XiaotangChen,Kaiqi Huang,and Shu Zhang.通过类激活图增强来实现对人的重新识别,从而实现丰富的特征发现.在CVPR中,第1389-1398页[47] Yang Yang,Jimei Yang,Junjie Yan,Shengcai Liao,Dong Yi,and Stan Z Li.突出的颜色名称,用于人的重新识别。在ECCV中,第536-551页[48] 张天柱,徐长生,杨明轩。学习多任务相关粒子滤波器用于视觉跟踪。IEEE Transactions on Pattern Analysisand Machine Intelligence,41(2):365[49] 张天柱,徐长生,杨明轩。鲁棒的结构稀疏跟踪。IEEE Transactions on Pattern Analysis and MachineIntelligence,41(2):473-486,2019。[50] Zhizheng Zhang,Cuiling Lan,Wenjun Zeng,and ZhiboChen. 密集语义对齐的人员重新识别。在CVPR中,第667-676页[51] 赵黎明、李Xi、庄月婷和王敬东。深度学习的部分对齐表示用于人员重新识别。在ICCV,第3219-3228页[52] 梁铮,黄宇佳,鲁沪川,杨毅。用于深度人物再识别的姿 势 不 变 嵌 入 。 IEEE Transactions on ImageProcessing,28(9):4500[53] 郑良,沈丽月,田璐,王胜金,王京东,田琦.可扩展的人员重新识别:基准。在ICCV,第1116-1124页[54] Liang Zheng,Yi Yang,and Alexander G Hauptmann.个人再认同:过去、现在与未来。arXiv预印本arXiv:1610.02984,2016年。[55] 郑伟世,龚绍刚,陶翔。基于概率相对距离比较的人员在ICCV,第649-656页[56] 郑伟世,龚绍刚,陶翔。通过相对距离比较进行再确认。IEEE Transactions on Pattern Analysis and MachineIntelligence,35(3):653[57] Wei-Shi Zheng,Xiang Li,Tao Xiang,Shengcai Liao,Jianhuang Lai,and Shaogang Gong.部分人员重新鉴定。在ICCV,第4678-4686页[58] 郑哲东、梁铮、易阳。通过gan生成的未标记在
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- C++标准程序库:权威指南
- Java解惑:奇数判断误区与改进方法
- C++编程必读:20种设计模式详解与实战
- LM3S8962微控制器数据手册
- 51单片机C语言实战教程:从入门到精通
- Spring3.0权威指南:JavaEE6实战
- Win32多线程程序设计详解
- Lucene2.9.1开发全攻略:从环境配置到索引创建
- 内存虚拟硬盘技术:提升电脑速度的秘密武器
- Java操作数据库:保存与显示图片到数据库及页面
- ISO14001:2004环境管理体系要求详解
- ShopExV4.8二次开发详解
- 企业形象与产品推广一站式网站建设技术方案揭秘
- Shopex二次开发:触发器与控制器重定向技术详解
- FPGA开发实战指南:创新设计与进阶技巧
- ShopExV4.8二次开发入门:解决升级问题与功能扩展
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功