没有合适的资源?快使用搜索试试~ 我知道了~
部分正则化的近似重复车辆再识别
3997部分正则化的近似重复车辆再识别何冰1李佳1,3,4赵一凡1田永红2,31北京航空航天大学虚拟现实技术与系统国家重点实验室2北京大学电子工程学院视频技术国家工程实验室3中国深圳鹏程实验室4北京大数据与脑计算先进创新中心,中国北京1{bing,jiali,zhaoyf}@ buaa.edu.cn2yhtian@pku.edu.cn摘要车辆再识别(Re-ID)技术在城市监控和智能交通中具有重要的应用价值,已成为计算机视觉领域的研究热点。随着深度学习方法的发展,车辆Re-ID仍然面临着近乎重复的挑战,即区分具有几乎相同外观的不同实例以前的方法简单地依赖于全局视觉特征来处理这个问题。本文提出了一种简单而有效的部分正则化鉴别特征保持方法,该方法提高了对细微差异的感知能力。我们进一步开发了一种新的框架,通过引入检测分支将部分约束与全局Re-ID模块集成。我们的框架是端到端训练的,结合了本地和全局约束。特别是,在推理步骤中没有部分正则化的局部约束,我们的Re-ID网络在大型基准数据集VehicleID和VeRi-776上的表现远远超过了最先进的方法。1. 介绍给定车辆身份的查询图像,车辆重新识别任务旨在从通常从大型摄像机网络捕获的大型图像数据库中检索该身份的所有图像。随着大数据集的提出[14,12,27]和深度学习算法的发展[24,36],最近的模型在过去十年中取得了车辆的重新识别对城市安全监控和智能交通有着巨大的潜力。考虑到不同实例之间的不明显差异,车辆重新识别仍然是一个非常有挑战性的任务,特别是在大量数据集的情况为了解决这个Re-ID任务,许多深度学习模型[27,1]李佳莉为通讯作者。网址:http://cvteam.net图1.近似重复的问题。(a)每一行的图像均来自不同的车辆标识,具有相似的外观。显然,很难区分它们,尤其是第一排,因为所有三个车辆标识都来自同一车辆型号。细微的区别性车辆部件对于近似重复车辆的重新识别至关重要。(b)如图像右侧所示,使用局部零件特征很容易区分这些相似车辆。在过去的几十年里,人们已经提出了依赖于全球信息的方法一种直观的解决方案是使用学习方法来减小相同车辆图像的距离,并扩大不同车辆图像的距离。为了更好地测量距离,以前的作品[12]主要使用深度度量学习将原始图像直接嵌入到欧几里得空间中,其中距离可以直接用作两辆车之间的Weinberger等人[25]探索度量学习的主题,以执行k-最近邻分类,并提出大间隔最近邻损失(LMNN)。FaceNet [20]将LMNN损失改进为修改的三元组损失,其直接优化最终距离度量,并可应用于重新识别和人脸识别任务。虽然这些工作在车辆再识别任务中取得了显著的成功,但当这些车辆具有不明显的差异时,它们通常会混淆例如见图1(a)。3998为了解决这个问题,最近的作品诉诸于额外的牌照和时空信息。Liu等人 [14]将车牌识别引入Re-ID任务。在无约束的环境中,由于视点的多样性和光照的变化,车牌识别往往失败。然而,由于车辆重新识别任务中的隐私和安全考虑,车牌信息在公共基准中不可访问。此外,一些其他方法[21,24]依赖于额外的时空信息来探索最终的检索结果。在本文中,我们探讨了车辆重识别中的近似重复如示于图1a),不同的车辆通常具有相似的几何形状和外观,这可能难以通过深度模型来区分。虽然这些几乎相同的车辆的细节在当地特征上有着引人注目的差异,例如很容易被人类识别的品牌和窗户上的标签,见图11。(见第1段b)。针对车辆重识别中的近重复现象,提出了一种局部正则化方法,将局部特征和非局部特征整合到一个统一的结构中。为了避免局部特征的消失,我们增强了深度学习网络中正则化部分的局部信息的感知-S.受目标检测中感兴趣区域(ROI)的启发,采用ROI接收模块来获取局部信息。我们开发了一种简单但有效的ROI投影方法,将检测分支与Re-ID任务相结合。在结合这些特征之后,我们进一步开发了局部和非局部分类损失。总而言之,我们的工作有三个方面:• 我们设计了一个有效的表示学习框架,共同考虑本地和全球的代表。• 我们提出了一个部分正则化的方法,以提高车辆重新识别的全球功能的判别能力• 我们进行了大量的实验,以表明所提出的方法优于最先进的方法:Vehi-cleID [12]在rank-1中为57%,在rank-5中为23%,VeRi- 776 [14]在mAP中为48%,2. 在HIT@1和9中为1%。在HIT@5中为6%本文其余部分的组织结构如下:秒2回顾了相关的工作,第二节。3给出了车辆再识别问题定性和定量实验见第2节。4,最后,我们总结了我们的论文在SEC。五、2. 相关工作车辆重新识别近年来,车辆重新识别任务越来越受到关注。Li-uet al. [12]提出了一个基准数据集VehicleID和一个管道,它使用深度相对距离学习(DRDL)将车辆图像投影到欧几里得空间中,其中距离可以直接衡量两个车辆图像的相似性。Liu等人 [14]提出了另一个数据集VeRi-776,并通过利用视觉外观,车牌和时空信息建立了一个由粗到细的渐进搜索框架。VeRi- 776包含丰富的注释,包括车辆类型、颜色、品牌、车牌和时空信息。Wang等人 [24]探索了车辆视点属性,并提出了方向不变特征嵌入模块。通过20个车辆关键点位置提取车辆的方位信息Shen等人 [21]进一步推进了时空思想,提出了可视化时空路径规划方法。Yan等人。 [27]将车辆图像的关系建模为多粒度列表,并提出了两种排名方法,广义成对排名和基于多粒度的列表排名来解决这个问题,并贡献了两个高质量和良好注释的车辆数据集VD1和VD2,它们是从两个不同的城市收集的,具有不同的注释属性。而Lou等人。 [15]诉诸对抗学习来生成新示例的交叉视图。人员重新识别人物再识别的目标是从大规模的图像数据库中检索出查询对象的所有图像。人的识别方法大致可分为两大类,分类法和基于三联体比较的连体法 Li等人[7]提出了一种多尺度上下文感知网络,可以捕获本地上下文的知识。Xiaoet al. [26]提出了一种使用卷积神经网络从多个数据集Su等人。 [22]提出了一种姿势驱动的卷积神经网络来解决大姿势变形和复杂视图变化问题。AlignedReID [31]学习全局特征,但在训练期间执行部分对齐。通过水平汇集从每一行提取局部特征,而不需要额外的监督或姿态估计。区别性部件定位。区分性部件定位已经被许多社区研究了很长时间,例如细粒度识别[5,10,18,29,30]、人脸识别[37,16,17,33,23]和人的重新识别[26]。在深度学习主导计算机视觉领域之后,用于细粒度识别的手工零件特征已经下降。许多作品[34,8]在个人重新识别利用人体部位学习鲁棒的表示。Li等人。 [8]提出使用空间变换器网络(Spatial trans-formerNetworks,简称STNN)来学习和定位可变形的行人部分。使用语义分割3999图2.我们框架的管道。我们的框架由两个模块组成,一个局部模块,专注于局部功能,以区分视觉特征的细微差异和一个全局模块,这是正则化的局部模块中的部分注意力。引入了一个零件定位网络和一个新的目标,以鼓励正确分类的识别零件。LocalNet是一个通用的目标检测网络,它生成每个车辆部件的ROI然后,在每个局部零件分支中,将零件定位模块生成的特别地,我们只使用全局模块(绿色)来进行我们的推理,它已经在反向传播过程中被零件特征正则化了。为了在严重的姿势变化下精确定位人体各个部位,Kalayeh等人 [6]利用了人体学习函数φ(·;θ)中的参数θ,由此优化目标可以定义为语义解析以利用本地视觉线索进行车辆重新识别。 Fu等[3]提出了一个弱超-Ved递归注意力卷积神经网络递归地学习区分区域注意力和区域注意力。arg minEθ.φ(x;θ)Σw,y、(1)基于特征表示。挑选深度滤波器响应[32]提出通过分析来自深度卷积神经网络的滤波器响应来以无监督的方式学习部分检测器。3. 方法3.1. 问题陈述其中φ(x;θ)是由深度神经网络提取的特征使用参数θ,w是将特征投影到预测标签中的参数。E(·)是交叉熵损失。如前所述,上述等式仅优化了全局特征,并且变得容易忽略细微的视觉线索。为了解决这个问题,我们引入了零件信息,并提出了一种新的基于局部特征的优化目标,其定义为给定 一 查询 图像,的 目标 的 汽车修理arg minE.φ(x;θ)Σwg,y+识别的目的是计算该查询图像与图库中的所有其他图像之间的相似性得分定义θ=θλE (φ(x;θ)<$M)<$w,yΣ 、(二)训练集为{x,y}N。每个车辆图像x是p plpi ii=1ip∈P标有识别标签yi,总数量为N个训练图像。训练图像和识别标签分别表示为x和y探针p和图库图像g之间的期望相似度被定义为M(φ(p;θ),φ(g;θ)),其中φ(·;θ)是通常表示公共深度编码器的特征提取函数,并且M(·)是在特征空间中定义的度量最重要的问题是如何学习特征提取函数φ(·;θ)。 以前的作品使用分类方法其中wg是将全局特征投影到预测的识别标签中的参数。Wl是将局部零件特征投影到预测零件标签中的局部参数。MP是零件的位置,可以用于从全局特征中提取局部特征。局部特征提取操作是局部特征提取操作。该公式将零件约束引入到re-id任务中,并强制网络保留本地零件提示以识别零件。详情将在第3.2节中解释。4000在Eq中仍有一些未解决的问题。(二)、首先,部件集P没有定义,这意味着我们不知道应该使用哪个部件。其次,需要提取零件位置Mp第三,应确定零件标号yp。在下一小节中,我们将解释我们的网络结构,以解决这些问题。3.2. 零件正则化Re ID在本节中,我们将部分正则化(PR)约束引入车辆重新识别任务。我们的框架由两个部分组成,一个全球模块进行Re-ID分类和局部部分正则化模块,以鼓励正确的分类识别的部分。为了更好地保留上下文信息,这是非常关键的近似重复问题,我们采用包围盒检测网络的零件定位。我们将在本节中解释两个主要组成部分的细节,并在第3.3节中描述培训计划。零件定义。我们选择了三个汽车零件作为我们的零件检测模块,车灯,包括前灯和后灯,窗户,包括前窗和后窗,以及车辆品牌。汽车头部区域是区分不同车型的关键。我们使用前灯来推断包括品牌的车辆头部区域。不同的车型可能会有非常不同的灯光,我们定义了灯光的包围盒,即包含灯光但延伸到车辆底部的紧密包围盒该定义能更好地保留上下文信息,实验证明该定义更稳定。在我们的模型中,三个部分的定义如图所示。3.我们在图中画出N个局部分支。2,因为我们的框架对于车辆部件的各种定义是灵活的,并且我们仅测试N = 3个部件(窗、灯、品牌)来验证该框架的有效性。零件检测。为了解决第二个问题,我们需要找到训练图像的部分位置。现有的目标局部定位算法有很多种,主要分为检测和分割两大类。分割方法需要像素级的标注,而这一点很难得到.在本文中,我们使用一个检测分支来检测预定义的车辆部件。如图所示。2、将 原 始 车 辆 图 像 输 入 到 LocalNet ( 实 验 中 使 用YOLO),该LocalNet具有24个卷积层,以获得原始零件检测结果。理想的结果是,每幅图像得到三个边界框,分别为窗口,左光和右光。在训练过程中,我们发现在一些罕见的情况下,车辆部件检测模型可能会由于遮挡而失败。为了处理特定车辆图像中的这些不可见部分,我们参考同一车辆的其余图像并计算丢失部分的平均位置。之后,这些平均部分位置被用作该特定图像的伪检测结果,以便于后续的训练过程。图3.模型的零件定义第一行以前视图和后视图示出了车窗部件车灯显示在第二行。我们将灯光的边界框扩展到车辆的底部,以保留更多的上下文信息。将包含车辆品牌的车辆的头部和后部区域定义为车辆品牌部分。基于零件的特征提取和聚合。我们的基于零件的特征提取和聚合模块有一个全局分支和三个局部分支。所有四个分支共享相同的骨干网络,这里可以使用任何卷积骨干,本文中我们使用ResNet-50 [4]对所有输入图像进行H×W尺寸调整,生成S×S×C形状的特征图。全局分支简单地使用全局平均池化来生成全局特征向量。在每一个局部分支中,我们将局部定位模块生成的ROI投影到全局特征图中。我们将输入图像划分为S×S网格,其中S×S等于全局特征图的空间大小(S×S)。每个与ROI重叠的网格单元将被标记为与ROI对应的部分然后使用局部平均池提取局部特征向量现在我们有了E中的部分集合P和部分局部化MpQ. (2),我们需要定义部件标签yp来训练网络。然而,零件标签很难获得。例如,品牌部件标签可以设置为车辆制造商的名称,因为所有品牌都来自同一个人。制造商应该是一样的。另一方面,窗口部分包含特定车辆的个性化提示,因此它应该标记有该特定车辆标识。考虑到在某些情况下车辆型号和车辆制造信息不可用,我们建议使用车辆识别标签来近似零件标签,Eq.(2)可以4001(一)(b)第(1)款图4.零件检测模块的可视化(a)示出了在不同视点下光的检测结果,注意在某些图像中光是不可见的并且不能被检测。(b)显示了车窗的检测结果。修改4. 实验4.1. 数据集和评估指标我们在两个公共的大规模车辆重新识别数据集VehicleID和VeRi- 776上评估了我们提出的模型。VeRi-776是车辆重新识别任务的基准数据集它包含776辆汽车的大约50,000张图像,这些图像具有丰富的属性,例如类型、颜色、品牌、牌照注释和时空关系注释。每辆车都被不同视角的摄像机拍摄下来该数据集的不足之处在于识别数量相对较少,在测试阶段仅根据模型信息很容易区分出每辆车。我们使用官方数据集设置,并采用mAP,HIT-1和HIT-5来评估我们提出的模型。VehicleID是另一个数据量较大的基准VehicleID由多个不重叠的摄像头拍摄每个图像都是从前视图或后视图捕获的。在VehicleID中,只有250个车型,这意味着许多不同的身份共享同一个车型,出现近似重复的问题。我们使用mAP来评估我们的方法在三个子集上(即,小、中、大)的测试集。在VehicleID和VeRi-776数据集中没有车辆部件的边界框注释。因此,我们从Ve中随机选择了500幅车辆图像,arg minE.Σφ(x;θ)<$wg,y+hicleID数据集,并使用边界框(窗口,灯光和品牌)标记三个车辆部件,并使用这些图像θ=θλEΣ(φ(x;θ)<$M)<$w,y、(3)来训练YOLO模型。训练模型显示,VehicleID和VeRi-776pp∈Pp l数据集,意味着良好的泛化能力。注释-过程也是相当有效的,成本只有4个小时,其中y=p,现在我们可以使用车辆识别标签来优化我们的模型。3.3.培训计划我们的零件定位模块和零件特征提取和聚合模块都可以使用反向传播进行端到端的训练。我们采用成功的Y-OLO网络[19]作为LocalNet的骨干.在训练步骤中,首先训练零件检测模块,提取训练图像的所有零件位置。由于在测试阶段没有使用局部特征分支,所以测试图像的部分信息没有被提取出来对于VehicleI-D和VeRi-776,我们采用迁移学习方案,并将ImageNet预训练的权重用于骨干网络GlobalNet(ResNet-50)。然后,我们使用方程中定义的优化函数(3)初始学习率lr = 0。01用指数学习率调度来微调整个特征提取模块,包括全局和局部分支。4002一个人注释所有500幅图像。实验中采用了平均精度(mAP)和累积匹配曲线(CMC)两种方法.对于VeRi-776,还报告了图像到跟踪度量HIT@1和HIT@5CMC曲线显示了探针标识的图像出现在不同大小的检索列表中的概率。CMC可以计算为:ΣNm(q,k)CMC@k=i=1i,(4)N其中N是查询的数量,并且如果qi出现在排名列表的前k中,则m(qi,k)等于为了使用累积匹配曲线,探头的地面实况图像的数量应该正好是1精度度量预测的准确性,每个查询q的平均精度可以计算为ΣNAP(q)=P(k)r(k),(5)k=14003其中P(k)是k个图像的截止点处的精度,N是图库中图像的总数,而Kr(k)是截止点k−1和截止点k之间发生的召回率变化。所有查询图像的平均精度由下式确定:ΣNAP(q)mAP=q=1,(6)Q其中Q是查询的总数。4.2. 实验装置我们使用ResNet-50作为特征提取的骨干网络。我们在全局特征映射上应用平均全局池化[11],然后使用1×1卷积层来提取最终的256-d全局特征向量。在训练和测试阶段,采用欧氏距离(L2)计算查询图像和图库图像之间的相似性得分。值得一提的是,我们在测试阶段只使用全局分支,因为在实验中我们发现,融合全局和局部部分特征产生的性能与只使用全局分支相似,这意味着我们的模型在测试阶段不需要部分检测。4.3. 与最新技术所提出的方法相比,国家的最先进的车辆重新识别方法在两个数据集。车辆ID 对于VehicleID数据集,测试数据按大小分为三个子集。对于每个测试数据集分割,选择每个车辆身份的一个图像并将其存储到图库集合中。其余图像均为探测查询。在该设置中,每个车辆标识具有多个查询图像,但只有一个图库图像,因此采用累积匹配曲线(CMC)度量进行评估。表1和表2显示了VehicleID的性能比较。我们的模型优于所有现有的方法。OIFE [24]和VAMI [36]利用车辆视图信息,使用视图不变特征来粗略地照亮车辆图像。这些视图对齐方法在以下情况下非常有用:图5.由识别分类模型生成的类别激活图(CAM)。具有(部分正则化)PR方法的CAM显示在第一行和第三行中,而NoPR显示在第二行和第四行中。PR激活图可以很容易地区分不同的汽车,通过准确的零件信息,接近重复的车辆,而NoPR模型通常会混淆。值得一提的是,没有RP的激活地图可以照顾到车灯或品牌零件原来。表1.VehicleID数据集中CMC@1的结果方法小介质大VGG+三重丢失[2]0.4040.3540.319VGG+CCL [12]0.4360.3700.329混合差分+CCL [12]0.4900.4280.382OIFE [24]--0.670VAMI [36] 0.529 0.473区分不同的车辆从不同的车辆模式,EL,但是它们不能解决近似重复问题,因为近似重复车辆的相同视点的出现仍然相当相似。为了区分相似车辆,需要更多的细节线索而不是车辆视图信息。VeRi-776按照[14]中的官方设置执行跨相机搜索。在测试阶段,从每台摄像机中选取一辆车的每幅图像作为探测图像,用于搜索同一辆车的轨迹。在其他摄像机里。这意味着对VeRi- 776的评估是以图像到跟踪的方式进行的,其中探头是图像,而目标是图像。赛道问题是如何定义相似性-我们的查询图像和图库轨道之间的关系。 关注-使用[14]中的设置,相似性被定义为查询图像与轨迹中的所有图像之间的最大相似性。图像-轨迹评价结果如表3所示 。 Fact+Plate+STR [14] 、 Siamese+Path [21] 和OIFE+ST [24]依赖于Veri-776数据集中的时空信息。Fact+Plate+STR [14]使用附加的车牌信息。其他方法只依赖于视觉信息,包括我们的方法。我们的部分正则化模型在mAP度量上优于所有现有的方法4004(一)(b)第(1)款(c)第(1)款图6.排名列表可视化。每一行中第一个带有绿色边框的图像是查询图像,其余图像从图库中检索并按相似性得分(L2距离)排序。地面实况用红色边框标记。(a)我们的完整模型与所有三部分分支的排名列表结果。每个raw中的第一幅图像是查询,其余十幅图像是前十个检索结果。(b)移除窗口分支后的排名列表结果。(c)移除灯和品牌分支后的排名列表结果。表2.VehicleID数据集中CMC@5的结果表3. VeRi-776 Datas et.方法小介质大方法地图HIT@1HIT@5VGG+三重丢失[2]0.6170.5460.503BOW-CN [35]0.1220.3390.537VGG+CCL [12]0.6420.5710.533LOMO [9]0.0960.2530.465混合差分+CCL [12]0.7350.6680.616[28]第二十八话0.1700.4980.712OIFE [24]--0.829事实[13]0.1850.5100.735VAMI [36]0.8330.7510.703Plate-SNN [14]0.1570.3630.466我们的0.9230.883零点八六四包括那些使用额外的非视觉线索的人。4.4. 消融研究我们在VehicleID数据集上进行消融研究,考察了模型中各部分分支的有效性在我们的框架中有三个局部分支,即窗口分支、轻型分支和品牌分支.我们一次移除一个分支,然后重新训练整个网络,演出 排名列表可视化也如图所示。六、FACT+Plate-REC [14]0.1860.5120.736FACT+Plate-SNN [4]0.2590.6110.774FACT+平板+STR [14]0.2780.6140.788[21]第二十一话0.5830.8350.900OIFE [24]0.4800.894-[24]第二十四话0.5140.924-VAMI [36]0.501--我们0.7430.9430.9874005表4.消融实验的匹配率结果方法CMC@1CMC@5全球+灯光+品牌+橱窗0.7420.864全球+灯光+品牌0.6750.830全局+灯光+窗口0.7100.887全球+橱窗+品牌0.7260.851全局+窗口0.7070.832橱窗+灯光+品牌0.6870.829基线(不含部件)0.6450.800表5. 不同分辨率的VehicleID数据等。车载输入尺寸CMC@1CMC@5小128× 1280.7260.886256 ×2560.7840.923中型128× 1280.6850.838256 ×2560.7500.883大128× 1280.6610.819256 ×2560.7420.864车窗如表4所示,切断车窗分支使re-id性能降低7%。车窗中包含的个性特征是区分不同车型的关键。可视化结果证实了这一点。如图6所示,几乎所有的前10个检索结果都来自同一个车型。在这种情况下,来自车窗的视觉提示变得非常重要,因为其他车辆部件几乎相同。汽车品牌和灯光。去除车辆品牌或车灯分支也会降低模型的性能。与切断车窗分支相比,去除车灯和品牌只会这是因为全局特征可以如之前在图5中所讨论的那样原始地学习一些车灯和品牌信息。性能下降表明,将显式约束放入神经网络使学习过程更有效。全球分支。我们去掉了全局分支,只用三部分分支来训练网络。在测试过程中,提取三部分特征向量并融合在一起以计算相似性得分。 性能下降了很多,这并不令人惊讶。车身和车轮等其他部件在区分两个车辆身份时是有用的。全局分支负责提取这些描述信息。决议的影响。我们对不同分辨率的输入大小进行了实验,如Tab。5和6.对于VehicleID数据集,我们在三个具有不同图像分辨率的测试集上进行了实验。一个直观的观察结果是,分辨率越高的图像性能越好表6. 不同分辨率对VeRi-776数据的影响输入大小地图HIT@1HIT@5128 ×1280.6530.8780.959256 ×2560.7020.9220.979512 ×5120.7430.9430.987但是具有更高的计算成本。有趣的是,我们发现128×128的图像表现出较大的性能下降,特别是对于CMC@1指标,而对于CMC@5和HIT@5,低分辨率的图像产生可行的结果。5. 结论在本文中,我们探讨了在车辆重新识别任务中引起最显着的混乱之一的近似重复的挑战。为了扩大几乎相同实例之间的差异,我们提出了一种简单但有效的部分正则化方法,该方法增强了原始Re-ID任务中的局部特征。我们的模型将部件级约束引入到典型的Re-ID框架中,以增强对细微差异的感知,这对于近似重复的车辆Re-ID至关重要,在前向传播过程中不会被忽略,并且特征图上的检测ROI是促进局部视觉线索的最佳实践。我们还进行了定性和定量实验,以证明我们框架中每个分支的有效性。致谢本 研 究 得 到 了 国 家 基 础 研 究 计 划(2015CB351806)、国家自然科学基金(61672072、61532003 、 61825101 ) 和 北 京 新 星 计 划(Z181100006218063)的资助。引用[1] Y. Bai,Y.Lou,F.Gao,S.Wang,Y.Wu和L.段。用于车辆重新识别的组敏感三元组嵌入TM- M,2018年。[2] S.丁湖,澳-地Lin,G. Wang和H.赵使用相对距离比较的深度特征学习进行人员重新识别。PR,48(10),2015年。[3] J. Fu,H.Zheng和T.美. 近距离看更好:用于细粒度图像识别的递归注意力卷积神经网络。在CVPR,第2卷,2017年。[4] K.他,X。Zhang,S. Ren和J. Sun.用于图像识别的深度残差学习。在CVPR,2016年。[5] S. Huang,Z.Xu,L.Tao和Y.张某用于细粒度视觉分类的部分堆叠cnn在CVPR,2016年。4006[6] M. M. Kalayeh 、 E. Basaran , M.Gokmen , M. E.Kamasak和M. Shah.人的语义分析用于人的重新识别.在CVPR,2018年。[7] D. Li,X. Chen,Z. Zhang和K.煌在身体和潜在部位上学习深度上下文感知特征,用于人员重新识别。在CVPR,2017年。[8] D. Li,X. Chen,Z. Zhang和K.煌在身体和潜在部位上学习深度上下文感知特征,用于人员重新识别。在CVPR,2017年。[9] S. 廖,Y.Hu,X.zhu和S.Z. 李基于局部最大发生表示和度量学习的人物CVPR,2015。[10] D. Lin,X.申角Lu和J. Jia. Deep lac:用于细粒度识别的深度本地化、对齐和分类。CVPR,2015。[11] M.林角,澳-地Chen和S.燕.网络中的网络。arXiv预印本arXiv:1312.4400,2013。[12] H. Liu,Y.田氏Y.扬湖,澳-地Pang和T.煌深度相对远程学习:区分类似车辆的区别。在CVPR,2016年。[13] X. Liu,W. Liu,H. Ma和H. Fu.城市监控视频中的大型车辆再识别。在多媒体和博览会(ICME),2016年IEEE国际会议。IEEE,2016.[14] X. Liu,W. Liu,T. Mei和H. MA.基于深度学习的城市监控渐进式车辆重新识别方法。在ECCV。施普林格,2016年。[15] Y.卢,Y。Bai,J. Liu,S. Wang和L.- Y.段。嵌入式对抗学习用于车辆再识别。IEEE Transactions on ImageProcessing,2019。[16] P. Luo,X.Wang和X.唐通过深度学习进行分层人脸解析在CVPR中。IEEE,2012。[17] J. - J.吕,X. Shao,J. Xing,C. Cheng,X.周,等用于高性能面部标志检测的具有两阶段重新初始化的深度回归架构。在CVPR,第1卷,2017年。[18] O. M. Parkhi、黑腹拟步行虫A.韦达尔迪角Jawahar和A.齐瑟曼。关于猫和狗的真相在ICCV。IEEE,2011年。[19] J. Redmon,S.迪夫拉河,巴西-地Girshick和A.法哈迪。你只看一次:统一的,实时的对象检测。在IEEE计算机视觉和模式识别会议论文集,第779-788页,2016年[20] F. Schroff,D. Kalenichenko和J.菲尔宾Facenet:用于人脸识别和聚类的统一嵌入CVPR,2015。[21] Y.沈,T. Xiao,H. Li,S. Yi和X.王.学习深度神经网络用于车辆识别和视觉时空路径建议。在ICCV。IEEE,2017年。[22] C.李杰,王建,等. Zhang,J. Xing,W. Gao和Q.田姿势驱动的深度卷积模型用于人员重新识别。在ICCV。IEEE,2017年。[23] Y. 太阳,X.Wang和X.唐用于面部点检测的深度卷积CVPR,2013。[24] Z.王湖,加-地唐,X. Liu,Z. Yao,S. Yi,J.Shao,J.Yan,S. Wang,H. Li和X.王.方向不变特征嵌入和时空正则化在车辆重识别中的应用。在CVPR,2017年。[25] K. Q. Weinberger和L. K.索尔距离度量学习用于大间隔最近邻分类。Journal of Machine Learning Research,2009年2月10日。[26] T. Xiao,H.Li,W.欧阳和X.王. 学习深度特征表示,具有域引导的丢弃,用于人员重新识别。在CVPR,2016年。[27] K. Yan,Y.田氏Y.Wang,W.Zeng和T.煌利用多粒度排序约束精确搜索视觉相似的车辆。InICCV,2017.[28] L. Yang,P.罗角,澳-地Change Loy和X.唐用于细粒度分类和验证的CVPR,2015。[29] H. Zhang,T. Xu,M. Elhoseiny,X. Huang,S. Zhang,中国古柏A. El- gammal和D. Metaxas Spda-cnn:统一语义部分检测和抽象以实现细粒度识别。在CVPR,2016年。[30] N. Zhang,J. Donahue,R. Girshick和T.达雷尔。用于细粒 度 类 别 检 测 的 基 于 部 件 的 r-cnn 。 在 ECCV 。Springer,2014.[31] X. Zhang,H.Luo,X.范,W。Xiang,Y.湘,四川人孙角,澳-地小阿,W.江角,澳-地zhang和J.太阳Alignedreid:超越人类水平 的 个 人 重 新 识 别 性 能 。 arXiv 预 印 本 arXiv :1711.08184,2017。[32] X. Zhang,H.熊,W.Zhou,W.Lin和Q.田为细粒度图像识别挑选深度滤波器响应。在CVPR,2016年。[33] Z. Zhang,P. Luo,C. C. Loy和X.唐基于深度多任务学习的人脸标志点检测。在ECCV。Springer,2014.[34] H. Zhao,M. Tian,S. Sun,J. Shao,J. Yan,S. Yi,X.Wang和X.唐主轴网:人体区域引导特征分解与融合的身份再识别。在CVPR,2017年。[35] L.郑湖,澳-地申湖,澳-地Tian,S. Wang,J. Wang,and Q. 田 可 扩 展 的 人 员 重 新 识 别 : 基 准 。 CVPR,2015。[36] Y. Zhou和L.邵用于车辆重新识别的感知注意多视图推理。在CVPR,2018年。[37] S. Zhu,C. Li,C. Change Loy和X.唐通过由粗到细的形状搜索进行人脸对齐。CVPR,2015。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 新型智能电加热器:触摸感应与自动温控技术
- 社区物流信息管理系统的毕业设计实现
- VB门诊管理系统设计与实现(附论文与源代码)
- 剪叉式高空作业平台稳定性研究与创新设计
- DAMA CDGA考试必备:真题模拟及章节重点解析
- TaskExplorer:全新升级的系统监控与任务管理工具
- 新型碎纸机进纸间隙调整技术解析
- 有腿移动机器人动作教学与技术存储介质的研究
- 基于遗传算法优化的RBF神经网络分析工具
- Visual Basic入门教程完整版PDF下载
- 海洋岸滩保洁与垃圾清运服务招标文件公示
- 触摸屏测量仪器与粘度测定方法
- PSO多目标优化问题求解代码详解
- 有机硅组合物及差异剥离纸或膜技术分析
- Win10快速关机技巧:去除关机阻止功能
- 创新打印机设计:速释打印头与压纸辊安装拆卸便捷性
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功