没有合适的资源?快使用搜索试试~ 我知道了~
4865原型引导的显著性特征学习在人物搜索Hanjae Kim1,Sunghun Jinghun1,Ig-Jae Kim2,Kwanghoon Sohn1,1延世大学2韩国科学技术学院(KIST){incohjk,sunghunjean,khsohn}@ yonsei.ac.kr,drjay@kist.re.kr摘要现有的人员搜索方法将人员检测和重新识别(re-ID)模块集成到统一的系统中。虽然已经取得了可喜的成果,错位问题,这通常发生在人的搜索,限制了歧视性的特征表示的re-ID。为了克服这一限制,我们引入了一个新的框架来学习的歧视性表示,利用原型在OIM损失。与使用原型作为个人身份表示的传统方法不同,我们利用它作为指导,允许注意力网络一致地突出不同姿势的多个实例此外,我们提出了一个新的原型更新计划与自适应的动量,以增加不同的实例之间的区分能力。大量的消融实验表明,我们的方法可以显着提高特征的区分能力,优于国家的最先进的结果,包括CUHK-SYSU和PRW的两个人的搜索基准。1. 介绍人物搜索的目的是在行人图像库中定位目标人物。虽然人员重新识别(re-ID)任务的输入是自动检测的人员绑定框[15],但人员搜索任务的输入是包含大量背景的野外图像。解决人员搜索问题最简单的方法是裁剪 所有行人采用现成的检测器[21],并将其传递到re-ID模块[1]。然而,这将相互影响的两个任务划分为单独的任务,并且在实际应用中效率低下。为了解决这个问题,最近的方法[30,18,2,40]通过共享骨干网络将检测和重新ID制定为统一的框架,并以端到端的方式训练这两个任务。人物搜索以及重新识别的主要目标是从图像中生成区分特征,用于将同一类(身份)与目标人物匹配。现有的方法专注于特征表示学习[29]*通讯作者(a)(b)(c)第(1)款图1.在人员搜索任务中,由于(a)其他实例的存在,(b)误检测和(c)背景物体。以分类行人图像图库中的不同实例。然而,如图1所示,未对准问题源于与其他实例或背景对象的遮挡,以及来自检测器的误报,这阻碍了鲁棒的特征表示。为了克服这一点,最近的方法[16,39,37,24,25]利用注意力机制来获得突出人类的区分部分(例如,衣服或手袋)。然而,人检测和重新识别本质上是矛盾的[32],因为前者的目的是将图像中的每个人分类到人类中,而后者的目的是区分个人进行识别。它限制了传统re-ID方法中的注意力机制在人员搜索框架中的适用性。另一方面,用于训练特征表示的损失函数,如交叉熵[35]或三重损失[5]在re-ID社区中被广泛使用,以使相同的身份在嵌入空间中更接近,而不同的身份在嵌入空间中更接近。4866不同的身份相距甚远。然而,这两个损失对于人员搜索是不可扩展的,因为统一的框架将用于训练的批量大小限制为小。为了实现这一点,Xiaoet al. [30]提出了一种新的在线实例匹配(OIM)损失的人搜索。OIM损失将不同的身份模式聚集到代表某个身份的特征向量中,即,原型类型[23,34],然后通过最小化类内变化[27]来优化所有特征以更接近其对应的原型。然而,原型以在线方式更新而不考虑输入,而输入识别可能受到干扰原型优化的噪声分量的影响。在本文中,我们推测OIM损失中的原型可以作为指导,以解决传统方法中的失调问题。受原型最优描述每个类的启发,我们的目标是学习注意机制,使注意力集中在与其原型相似的区域。 具体地说,我们计算原型和检测实例的特征之间的像素级亲和力,并利用它作为注意学习的指导。该映射强调对原型高度响应的区域,并监督注意显著性模块在推理过程中突出一致区域以对抗姿势或视点变化此外,我们还提出了一种新的原型更新方案,用于从OIM丢失中进行区分特征学习。我们不是利用固定动量进行原型更新,而是将动量定义为以下两个余弦相似性之间的比率:1)目标和正原型对,2) 目标和最难的否定原型对。当目标特征更接近最难的负原型时,低动量被分配给目标特征以防止原型移动更接近最难的负原型。本文的主要贡献可归纳如下:• 本文提出了一个原型引导的注意力模块,以原型为引导,实现了对人物搜索中注意力机制的学习。• 我们引入了一种新的原型更新方案,以增加原型在不同实例之间的区分能力。• 我们通过广泛的实验评估证明了我们提出的方法比最先进的方法的优势2. 相关工作人物搜索给定查询,人物搜索旨在匹配和定位图库场景图像中的特定人物。大多数人搜索方法通过在图像级别裁剪实例来将问题缩小到人重新ID[6,1,9]或特征级[18,2,40]。它使人的搜索任务具有挑战性,由于错误的检测,遮挡或背景杂波造成的匹配对之间的误对准为了实现这一点,已经提出了几种方法来解决这个问题。Lan等. [14]识别多尺度匹配,并通过知识蒸馏来对齐来自每个尺度的语义。Han等. [9]指出,独立于re-ID损失的训练检测器会导致失准,并通过在re-ID的监督下优化检测器,提出了一种新的定位细化框架。[40]通过估计可见性来对齐实例的每个部分,并引入部分特征匹配方案。注意机制注意力机制旨在定位图像中的区分区域,已用于re-ID [16,37,24,7,25,31,2]和人物搜索[1]任务中以解决错位问题。例如,Liet al. [16]同时学习空间、通道和硬区域注意力,以增强任意对齐的边界框内的注意力选择。Zheng等[39]在同一个人的图像之间加强注意力一致性,例如不变特征表示。同时,也有一些以附加信息为引导的注意学习方法。通常,指导包括人类语义,例如前景掩模[24,1]或身体部位[36,7],以去除背景杂波或突出显示未被遮挡的区域以进行部分匹配。然而,所有这些方法都需要在不同的数据集上训练额外的模型来指导,这影响了主要任务的性能相比之下,所提出的原型指导通过去除输入特征的噪声分量来帮助基于原型的特征学习,并且可以在优化步骤期间容易地获得。PrototypePrototype,也称为代理[17],均值[8]或中心[27],是训练示例中一类的代表。原型的概念被广泛用于深度度量学习[27,17,30,20]。基于原型的损失不是专注于小批量中的单个实例[4,12],而是优化所有特征以接近其原型,以最小化类内变化[27,20]。原型的真实位置需要整个数据集的知识大多数作品[8,27,30]通过在线方式更新原型来估计原型,在整个训练过程中使用固定的动量。虽然有效,但在人员搜索任务中存在不对齐问题的输入样本会阻碍原型类型的优化。为了解决这个问题,我们提出了一个新的原型更新计划与自适应的动量,以防止原型接近其硬负由于错位。4867原型响应图图2. 嵌入空间中的特征分布图(左),以及每个类随机挑选的样本的原型响应图,标记为白色圆圈(右)。响应图突出显示类的一致区域,对于姿势或相机视点不变3. 方法3.1. 初步典型的端到端人员搜索方法[30,18,40,2]基于Faster R-CNN [21],其中re-ID头作为统一框架。该算法首先利用区域建议网络(RPN)对单个图像进行特征定位,然后根据感兴趣区域(ROI)裁剪特征,在ROI池层提取建议特征 让我们将提取的特征表示为F∈RC×H×W,其中C是具有高度H的特征通道的数量,并且宽度W.Re-ID头然后从F生成特征嵌入f ∈ Rd×H×W,然后将f的空间信息聚合到x ∈ Rd,其中d是通道维度。为了优化嵌入,OIM损失[30]用于处理未裁剪的全场景输入图像中的少量身份。他们估计原型代表每个类通过在线更新计划与所有的训练样本,并记住他们到查找表V。为了使用未标记的身份进行学习,来自它们的特征也被记忆在循环提示U中。给定第i类的嵌入xi,xi被识别为i的概率pi可以从具有V和U中的每个元素的softmax函数估计为:(vT x/τ)ingL2归一化:vi←ηvi+(1 − η)xi, η∈ [0,1].(二)3.2. 动机和概述在SEC的基线3.1简单地使用全局平均池(GAP)进行嵌入,因此遭受检测模块引起的误对齐。此外,这种错位的特征干扰了从Equ更新的原型。(2)在嵌入空间中具有区分性,降低了OIM损失的特征学习能力。在本文中,我们的目标是解决不对齐的问题所造成的检测模块与原型引导atten- tion(PGA)模块,它产生一个显着图的本地化的判别区域内的边界框。我们用一个原型来指导显着图的学习,以突出同一类中的一致区域,如图所示2、使检测模块嵌入的特征更接近原型,减少类内变异。此外,为了增加原型之间的可分性,我们提出了一种新的原型更新方案与自适应动量,约束的特征涉及原型更新。3.3. 原型引导注意力模块pi=Ne我我(vTxi/τ)(uTx/τ),(1)用于显著性特征学习的就像-j=1ej+k=1eKi如图3所示,我们提出了一个注意力模块,以提供增强区分区域的其中[v1,···,vN]∈V,[u1,···,uQ]∈U且τ是tem-概率分布光滑性的温度参数第OIM损失的最终目标是最大化pi的对数似然:Loim=Ex[logpi]。在前向路径之后同时抑制噪声分量。在这项工作中,我们采用SE块[13]作为设计我们的atten的基础。模型的轻量级机制和可扩展性[1,18,36]。我们考虑通道和空间注意力来生成显着图[3,28]。原型特征嵌入Pickedsamples48682121图3. 提出的PGA模块的整体架构。它包括用于显著性特征学习的注意力模块、原型指导生成模块和嵌入训练样本的原型更新模块。给定第二节中的特征图f。3.1,我们在空间域中聚合特征以产生信道描述符fc∈Rd。描述符被馈送到两个连续的在OIM损失v中的原型的特征f来自Sec.3.1.我们将响应图M定义为f和v之间的余弦相似度:FC层捕获通道依赖关系,h,wvfh,w通过应用sigmoid来获得通道方向的注意力zm=v∗ǁfh,wǁ2 、(五)函数对描述符进行归一化。 过程公式为:z=σ(Wcδ(Wcfc)),(3)其中mh,w∈M. 我们进一步将ReLU函数附加到M来抑制弱的原型反应。在生成指导之后,注意力图A通过均方误差损失从其优化,该均方误差损失被定义为:cd×d c d×d其中W1∈Rr和W2∈Rr是公司简介FC层,用于将通道减少和扩展一个系数或者r和σ和δ指的是sigmoid和ReLU函数。从信息Latt=HMh,w− Ah,w(六)W通道,f与权重z逐通道合并,然后平坦化,得到空间描述符fs∈RHW。与通道注意力类似,我们使用两个FC层和sigmoid函数来生成显着图A:A=σ(Wsδ(Wsfs)),(4)注意,飞向M的反向传播梯度被设置为零,以防止在该损失函数上优化原型。3.4. 使用自适应动量进行原型更新在OIM损失中,原型在嵌入中的位置其中Ws∈RHW×(HW),Ws∈R(HW)×HW是通过在线更新原型来估计空间,1r′2r′当量ag (二)、 这个方程可以被看作是一个指数方程。SE块的参数与因子或r′。空间注意力A被重新塑造回与f相同的空间大小。原型制导生成一 从注意模块中学习显著性的一种直接方法是从主任务的损失函数中进行自引导学习。然而在人物搜索中,注意力模块受到检测和re-ID丢失这两个相互冲突的因素的影响。相反,我们利用原型,这是OIM损失中类的最佳表示,作为指导,以帮助注意学习。具体来说,我们测量了是说SEblockSEblock用于显著性特征学习的注意力模块RPN关注模块指导PrPool一B加权池化aB余弦相似性原型响应图34查找表原型更新NN-1N-24321ResNet-50Conv1-4⋮⋮⋮24869加权移动平均[22],其中涉及更新过程的特征因此,如果最近特征具有噪声分量,例如背景杂波或遮挡,则它可以将原型转换为接近其他类的原型,这减少了特征嵌入之间的类间差异。在此基础上,我们提出了一个新的考虑原型分布的原型更新过程.为了保持OIM损失中非参数原型估计的效率,我们在方程中调制动量η(2)在每次原型更新时,将原型远远地转移4870eIqepi每个特征。最后,特征通过显著图进行加权平均,然后进行L2归一化。对于基本OIM损耗设置,温度参数τ设置为0。033和动量η为0。五、(一)(b)第(1)款模型训练我们在单个NVIDIA TITAN X GPU上训练我们的网络,每批处理4张图像。所有图像的大小调整为900在较短的一面和1500 上更大的一面。对 于CUHK-SYSU和PRW数据集,学习率初始化为0.0005和0.0001,并降低图4. 具有(a)固定动量方程的原型更新方案的图示。(2)和(b)基于原型与其硬否定之间的相似性的自适应动量。每个箭头的粗细代表相应组件更新动量的大小从它的负面影响[4]。假设有一个标注为将i标识为xi的目标,以及原型集V。我们首先比较两对的相似性:vTxi和vTvi,其中q是满足条件q=Tv.(七)p∈{1. N}\i如图4.当原型vi与其硬负原型vq的相似性大于与目标xi的相似性时,vi对更新过程的重要性应小于xi。因此,我们从相似性中定义适应性动量在第30k次迭代时乘以10。在这两个数据集中,训练集-继续直到第40k次迭代。我们使用SGD进行优化,权重衰减为0。0001,动量为0。9 .第九条。损失函数我们使用检测损失Ldet、OIM损失Loim和注意力引导损失Latt的线性组合来优化我们提出的方法,如下所示:L=Ldet+Loim+λLatt,(9)其中λ是Latt的损失重量。λ的初始值等于0,0。在V处保存所有原型后,1。4. 实验4.1. 数据集和指标CUHK-SYSUCUHK-SYSU数据集[30]是从城市场景和电影中收集的大规模人物搜索数据集。该数据集包含18,184张图像,96,143张(vTx/τ)(vTx/τ)标记的边界框和8,432个标记的身份。所有Q我我我v← v+x,未标记的身份作为阴性样本,ie(vTxi/τ)+e(vTxi/τ)ie(vTxi/τ)+e(vTxi/τ)i从重新识别的训练中排除我们跟着火车/考试qiq我(八)从数据集中提供的分割:11,206张图像和5,532张图像其中τ是softmax温度值。 注意当在初始状态下,vi的值为空,我们只需将目标特征设置为V。3.5.实现细节我们在Pytorch上实现了我们提出的方法[19]。我们在OIM [30]上构建模型,该模型由主干ResNet-50 [19]和Faster R-CNN[19]作为检测模块。为了训练区域建议网络(RPN),我们调整锚定尺度{8,16,32}和宽高比{1,2,3}。我们采用其他设定,例如前期重叠门槛或每批与 [21]相 同 接 下 来 , RoIAlign [10]用 于 ResNet-50 的“conv 4”块上的特征提取在“conv5”块上将提取的特征维数变换为2048后我们使用与RPN相同的锚点设置来训练检测头。然后将所有特征转换到256维,并通过由两个比例分别为r=8和r′=7的SE块组成的注意力模块,以生成显著图用于训练的身份,以及用于测试的6,978个图库图像和2,900个查询图像。该数据集提供了不同大小的图库子集,我们在实验中使用默认的图库大小为100。PRW数据集[38]是从大学捕获的11,816个视频帧的集合。该数据集包含43,110个边界框和932个身份。与CUHK-SYSU类似,注释具有标记和未标记的实例,34,304个边界框使用标识进行注释我们还遵循了数据集中的训练/测试分割:5,704张图像和482个身份用于训练,6,112张图像和2057张查询图像用于测试。在PRW中,查询的搜索空间是整个图库集。评估指标我们使用平均精度(mAP)和通用匹配特征(CMC top-K)报告性能,遵循个人搜索的常见做法。第一个指标计算从图库图像中搜索查询的平均精确度(AP)得分,并对所有查询标识的AP得分进行平均以获得mAP得分。第二个指标计算以下情况:1 −���������不不4871方法Res.mAP(%)前1名(%)基线自我关注自我关注PGAPGA运动鞋7×735.577.27×736.277.714×1436.878.37×740.379.914×1442.782.8表1.原型引导注意模块(PGA)的组件分析“雷斯"表示显著图的空间大小。所有的实验都是在PRW上进行的。方法τmAP(%)前1名(%)基线-35.577.2基线w/AMU0.0338.779.80.0538.980.00.138.679.4PGA w/o AMU-40.379.9PGA w/AMU0.0342.483.10.0542.583.50.142.282.9表2. 自适应动量更新(AMU)的成分分析与PRW上的基线和PGA模块。存在至少一个前K个预测边界框以大于0.5的重叠率与地面实况重叠。在这个实验中,我们只采用CMC top-1,因为它是所有可能的 Ks中最难的条件。4.2. 消融研究PGA的有效性我们分析了我们的PGA模块与消融评估的有效性原型指导注意力模块。为了证明显着图的空间大小对性能的影响,我们使用扩张卷积将conv5块[11]中的步幅减小到1,表示为就像Tab。1,我们观察到使用显著图进行特征提取提高了re-ID性能。当自我注意模块im-证明了0. 7%和0。在7×7显著图中,PGA仅提高了4 .5%。8%和2。百分之七这表明,原型引导有助于注意学习的每-儿子搜索此外,增加显著图的空间大小有助于通过提供关于边界框内的区分区域的细粒度信息来获得性能增益。AMU在Tab中的有效性2.在方程中,我们评估了不同温度设置下自适应动量更新(AMU)对基线和PGA的影响。(八)、与基线相比,使用固定的动量更新的原型方程。(2)、AMU提高了图5. 在训练过程中,每个时期原型与其硬底片之间的平均余弦相似性比较方法参数数量(K)速度(秒)基线35960.355PGA38040.356表3.PGA和基线之间的参数数量和运行时间的比较所有数值均在TITAN X GPU上测量。mAP 3. 2%和前1名2。6%,对于τ=0。03.在PGA基础上加入AMU,可使mAP提高6. 9%,前5名。9%,对于τ=0。03.这表明AMU支持PGA的鲁棒原型制导对于所有实验,我们观察到温度0。05提供了最佳性能,因此我们在模块上采用此外,我们进行了一个实验,以验证AMU的有效性,以增加在图5中的原型之间的可分性。具体来说,我们跟踪一个原型,并在训练过程中的每次更新时收集最难否定和第二难否定的余弦相似度,以比较它们之间的距离很明显,从AMU更新的原型在每个时期都远离其硬底片,这极大地有利于OIM损失的特征学习。显着图可视化对于定性分析,我们从PGA模块中可视化显着图图6.我们观察到,从原型类型的指导监督的显着图将一致区域定位到同一个人,这导致从视点或姿势变化的不变表示。除了验证显着性图的鲁棒性之外,我们还将图7中关于未对齐情况的图可视化。在所有情况下,显著图通过突出区分区域并抑制背景杂波或其他实例来提高匹配性能余弦相似度最难负第二难负固定动量自适应动量时期编号4872方法mAP(%)前1名(%)两步MGS [1]83.083.7RDLR [9]93.094.2GPN [6]89.190.5TCTS [26]93.995.1一步OIM [30]75.578.7[33]第三十三话84.186.5QEEPS [18]88.989.1APNet [40]88.989.3NAE+[2]92.192.9我们90.291.8我们的92.394.7图6.由PGA模块生成的显着图的可视化。请注意,红色表示突出区域,蓝色表示抑制区域。查询排名1排名2排名5查询排名1排名2排名3查询排名1排名5排名7图7.展示了所提出的显着图对具有背景(两行)、覆盖半个人的边界框(中间行)和其他实例(底行)的存在的遮挡的鲁棒性。选项卡中的比较3、我们比较数字的参数和运行时速度来处理一个画廊图像与基线OIM。同样在基线上,我们的模型显示了约0.3秒的联合框架的高计算速度值得注意的是,我们只增加了约200K的吸收模,就达到了最先进的性能。4.3. 与最新技术水平方法的在本节中,我们将我们的模型与几种最先进的人员搜索方法进行为了更好的比较,我们将人员搜索方法分为两步两个独立的检测和重新识别模型和一步表4.中大-中山大学的成绩比较方法mAP(%)前1名(%)两步MGS [1]32.672.1RDLR [9]42.970.2GPN [6]46.286.1TCTS [26]46.887.5一步OIM [30]21.349.9[33]第三十三话33.473.6QEEPS [18]37.176.7APNet [40]41.981.4NAE+[2]44.081.1我们42.583.5我们的44.285.2表5.PRW上的性能比较统一的模式。中大-中山大学的结果在选项卡上。4、我们在中大中山大学上显示人物搜索结果,图库大小为100。我们的方法实现了92的mAP。3%,top1的准确率为94. 7%,一步法优于其他方法。与QEEPS [18]使用siamese网络将查询信息引导到主网络或采用附加图网络的ContextGraph [33]相比,我们的方法在优化过程中重用原型,需要更少的内存。它也优于采用基于部件的模型来解决未对准问题的APNet [40]请注意,NAE+[2]还利用了逐像素显著性图,但显著性是从粗略的边界框注释中生成的我们的方法也可以与两步法相媲美,包括使用掩码信息进行逐个搜索的MGTS [1]和采用边界框细化的RDLR [9]TCTS [26]在所有方法中产生最高性能,但它们需要复杂的级联过程。与两步法相比,该方法是一个统一的模型,所需的参数和记忆较少。PRWIn选项卡上的结果。5,我们将我们的结果与PRW数据集上的最先进方法进行了我们实现4873(a)(b)(c)(d)(e)(f)图8. PRW数据集中top1个人搜索结果的定性结果:(a),(d)是查询图像,(b),(e)是来自基线OIM的top1检索结果,(c),(f)是来自我们模型的结果。我们将红色框视为失败,绿色框视为正确案例。黑框表示检测到的大规模实例,以便更好地进行比较。(a)(b)(c)(d)(e)(f)图9.中大-中山大学数据集中top1人物搜索结果的定性结果:(a),(d)是查询图像,(b),(e)是基线OIM的结果,(c),(f)是我们模型的结果。我们将红色框视为失败,绿色框视为正确案例。黑框表示检测到的大规模实例,以便更好地进行比较。44的mAP2%,top1的准确率为85。2%,超过了大多数人的搜索方法。与中大中山大学相比,PRW的画廊规模更大,包含了许多身份,因此更具挑战性。我们的模型中的显着图可以强调在这样的硬数据集上有效的区分值得注意的是,我们的方法表现出很高的改善top1的准确性,超过3。与NAE+相比,9%。从原型引导学习的显著图提供了跨同一个人的一致区域,从而有助于检索性能。5. 结论我们引入了一个新的框架来学习每个人实例在严重几何变化下的区分表示我们解释了OIM损失中的原型可以最优地描述每类的事实.为此,我们提出了一个原型引导注意模块,利用OIM损失中的原型作为显著性特征学习的指导。它允许解决错位问题的人搜索任务与额外的监督信号从原型指导。此外,我们还引入了一种具有自适应动量的原型更新机制,以提高原型对不同实例的区分能力。我们的实验表明,我们的方法有效地学习了每个人的显著性特征,优于最先进的方法。在未来,我们将扩展我们的模型,以部分为基础的表示一个身份,利用部分匹配,而不使用额外的部分注释。致谢本研究得到了延世大学2021年研究基金(2021-22-0001)和科学和信息通信技术部资助的韩国国家研究基金会(NRF)的高级集成智能识别(AIID)研发计划4874引用[1] 帝尘、张珊珊、欧阳万里、杨剑、英台。基于掩码引导的双流cnn模型的人员搜索。在IEEE欧洲计算机视觉会议论文集,第734-750页一、二、三、七[2] 帝尘,张珊珊,杨健,Bernt Schiele。Norm-aware嵌入用于高效的人物搜索。在IEEE计算机视觉和模式识别会议上,第12615-12624页,2020年。一、二、三、七[3] Long Chen,Hanwang Zhang,Jun Xiao,Ligen Nie,Jian Shao,Wei Liu,and Tat-Seng Chua. Sca-cnn:图像字幕卷积网络中的空间和通道注意力。在IEEE计算机视觉和模式识别会议论文集,第5659-5667页3[4] Weihua Chen , Xiaotang Chen , Jianguo Zhang , andKaiqi Huang.超越三联体丢失:一个用于个人重新识别的深度四联体网络。在IEEE计算机视觉和模式识别会议论文集,第403第二、五条[5] 德成,龚一宏,周三平,王进军,郑南宁。基于改进三重丢失函数的多通道部件cnn的人员再识别。在计算机视觉和模式识别的iPhoneConference的Proceedings中,第1335-1344页,2016年。1[6] 董文凯,张兆祥,宋春风,谭铁牛.用于人员搜索的实例引导建议网络在IEEE计算机视觉和模式识别会议论文集,第2585-2594页二、七[7] 尚高,王静雅,陆沪川,刘子墨基于位姿引导的遮挡人可见部位匹配。在IEEE计算机视觉和模式识别会议论文集,第11744-11752页,2020年。2[8] 萨 曼 莎 · 格 雷 罗 芭 芭 拉 · 卡 普 托 和 托 马 斯 · 门 辛 克Deepncm:深度最近类均值分类器。在2018年国际学习表征研讨会上。2[9] 韩楚楚、叶嘉诚、钟云山、谭新、张驰、高长新、桑农。用于人员搜索的re-id驱动的本地化细化。在IEEE计算机视觉国际会议论文集,第9814-9823页,2019年。二、七[10] 凯明赫,吉奥吉亚·吉奥萨里,彼得·多尔和罗斯·吉尔希克。面具R-CNN。在IEEE计算机视觉国际会议论文集,第2961-2969页5[11] 何开明,张翔宇,任少卿,孙健。用于图像识别的深度残差学习。在IEEE计算机视觉和模式识别会议论文集,第770-778页,2016年。6[12] 亚历山大·赫尔曼斯,卢卡斯·拜尔,巴斯蒂安·莱布。为了保护三重丢失的人重新识别。arXiv预印本arXiv:1703.07737,2017。2[13] 胡杰,李申,孙刚。挤压-激发网络。在IEEE计算机视觉和模式识别会议论文集,第7132-7141页3[14] 徐澜,朱夏天,龚少刚。通过多尺度匹配进行人员搜索。在欧洲计算机视觉会议论文集,第536-552页,2018年。2[15] Wei Li , Rui Zhao , Tong Xiao , and Xiaogang Wang.Deep-Reid:深度过滤配对神经网络,用于人员重新识别.在IEEE计算机视觉和模式识别会议论文集,第152-159页1[16] Wei Li,Xiatian Zhu,and Shaogang Gong.和谐的关注网络,人的再认同。在IEEE计算机视觉和模式识别会议论文集,第2285-2294页,2018年。一、二[17] Yair Movshovitz-Attias、Alexander Toshev、Thomas KLe- ung、Sergey Ioffe和Saurabh Singh。没有大惊小怪的距离- ric学习使用代理。在IEEE国际计算机视觉会议集,第360-368页,2017年2[18] Bharti Munjal , Sikandar Amin , Federico Tombari 和Fabio Galasso。查询引导的端到端人员搜索。在IEEE计算机视觉和模式识别会议上,第811-820页,2019年。一、二、三、七[19] Adam Paszke,Sam Gross,Soumith Chintala,GregoryChanan,Edward Yang,Zachary DeVito,Zeming Lin,Al-ban Desmaison , Luca Antiga , and Adam Lerer.pytorch中的自动微分。2017. 5[20] 齐浅,雷尚,孙白贵,胡菊花,李昊,容瑾。Softtripleloss:无需三重采样的深度度量学习在IEEE计算机视觉国际会议论文集,第6450-6458页,2019年。2[21] 任少卿,何开明,Ross Girshick,孙健。更快的r-cnn:用区域建议网络实现实时目标检测。神经信息处理系统的进展,第91-99页,2015年。一、三、五[22] SW罗伯茨。基于几何移动平均值的控制图检验。Technometrics,1(3):239-250,1959. 4[23] 杰克·斯内尔,凯文·斯沃斯基,理查德·泽梅尔.用于少量学习的原型网络。神经信息处理系统的进展,第4077-4087页,2017年。2[24] 宋春风,黄燕,欧阳万里,王良。面具引导的对比注意模型在人再识别中的应用。在IEEE计算机视觉和模式识别会议论文集,第1179- 1188页一、二[25] 谢彬,夏米利罗伊,叶金辉。Aanet:用于人员重新识别的致敬注意网络。在IEEE计算机视觉和模式识别会议论文集,第7134-7143页,2019年。一、二[26] Cheng Wang , Bingpeng Ma , Hong Chang , ShiguangShan,and Xilin Chen. Tcts:一个任务一致的两阶段人员搜索框架。在IEEE/CVF计算机视觉和模式识别会议论文集,第11952-11961页,2020年。7[27] Yandong Wen , Kaipeng Zhang , Zhifeng Li , and YuQiao.一种用于深度人脸识别的判别式特征学习方法欧洲计算机视觉会议论文集,第499-515页。Springer,2016. 2[28] Sanghyun Woo,Jongchan Park,Joon-Young Lee,andIn So Kweon. CBAM:卷积块注意模块。4875在欧洲计算机视觉会议论文集,第3-19页3[29] Tong Xiao , Hongsheng Li , Wanli Ouyang , andXiaogang Wang.学习深度特征表示与域引导辍学的人重新识别。在IEEE计算机视觉和模式识别会议论文集,第1249-1258页,2016年。1[30] 肖彤,李爽,王博超,林亮,王晓刚.联合检测和识别特征学习的个人搜索。在IEEE计算机视觉和模式识别会议论文集,第3415一、二、三、五、七[31] 徐静,赵睿,朱峰,王华明,欧阳万里。用于人的再识别的注意感知合成网络。在IEEE计算机视觉和模式识别会议论文集,第2119- 2128页2[32] 徐元路,马冰鹏,黄锐,林亮。通过对人物共性和人物独特性的联合建模,实现场景中人物的搜索。第22届ACM国际多媒体会议,第937-940页,2014年1[33] Yichao Yan , Qiang Zhang , Bingbing Ni , WendongZhang,Minghao Xu,and Xiaokang Yang.用于人员搜索的学习上下文图。在IEEE计算机视觉和模式识别会议论文集,第2158- 2167页7[34] 杨洪明,张旭尧,尹飞,刘成林。使用卷积原型学习的鲁棒分类。在IEEE计算机视觉和模式识别会议论文集,第3474-3482页2[35] 姚翟,荀国,闫璐,李厚强。在答辩中对失编人进行重新鉴定。在2019年IEEE/CVF计算机视觉和模式识别研讨会上1[36] Shanshan Zhang,Jian Yang,and Bernt Schiele. cnns中基于引导注意的遮挡行人检测。在IEEE计算机视觉和模式识别会议论文集,第6995-7003页,2018年。二、三[37] Zhizheng Zhang,Cuiling Lan,Wenjun Zeng,Xin Jin,and Zhibo Chen.全球关注人员重新识别。在IEEE计算机视觉和模式识别会议论文集,第3186- 3195页一、二[38] Liang Zheng , Hengheng Zhang , Shaoyan Sun ,Manmohan Chandraker,Yi Yang,and Qi Tian.人在野外的重新识别。在IEEE计算机视觉和模式识别会议论文集,第1367-1376页5[39] Meng Zheng , Srikrishna Karanam , Ziyan Wu , andRichard J Radke.重新识别与一致的细心暹罗网络。在IEEE计算机视觉和模式识别会议论文集,第5735-5744页一、二[40] Yingji Zhong,Xiaoyu Wang,and Shiliang Zhang.用于野外人员搜索的鲁棒部分匹配。进行中-IEEE计算机视觉和模式识别会议,第6827-6835页,2020年。一、二、三、七
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- SSM动力电池数据管理系统源码及数据库详解
- R语言桑基图绘制与SCI图输入文件代码分析
- Linux下Sakagari Hurricane翻译工作:cpktools的使用教程
- prettybench: 让 Go 基准测试结果更易读
- Python官方文档查询库,提升开发效率与时间节约
- 基于Django的Python就业系统毕设源码
- 高并发下的SpringBoot与Nginx+Redis会话共享解决方案
- 构建问答游戏:Node.js与Express.js实战教程
- MATLAB在旅行商问题中的应用与优化方法研究
- OMAPL138 DSP平台UPP接口编程实践
- 杰克逊维尔非营利地基工程的VMS项目介绍
- 宠物猫企业网站模板PHP源码下载
- 52简易计算器源码解析与下载指南
- 探索Node.js v6.2.1 - 事件驱动的高性能Web服务器环境
- 找回WinSCP密码的神器:winscppasswd工具介绍
- xctools:解析Xcode命令行工具输出的Ruby库
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功