没有合适的资源?快使用搜索试试~ 我知道了~
基于对比卷积的人脸识别韩春瑞1、 2[0000− 0001− 9725− 280X],Shiguang Shan 1、 3[0000− 0002− 8348−392X],Meina Kan 1、 3[0000− 0001− 9483− 875X],Shuzhe Wu 1、 2[0000− 0002−4455− 4123],Xilin Chen 1[0000− 0003− 3024− 4404]1中国科学院计算技术研究所中国科学院智能信息处理重点实验室,北京1001902中国科学院大学,北京1000493中科院脑科学与智能技术{chunrui.han,shuzhe.wu}@ vipl.ict.ac.cn,{sgshan,kanmeina,xlchen}@ict.ac.cn抽象。在当前使用卷积神经网络(CNN)的人脸识别方法中,要比较的一对人脸被独立地馈送到CNN中以进行特征提取。对于两个面部,应用相同的内核,因此面部的表示保持固定,而不管与谁进行比较然而,对于我们人类,当将其与如图1所示的不同的人进行比较时,通常关注面部的各种特征受此启发,我们提出了一种新的CNN结构,我们称之为对比卷积,它特别关注两张脸之间的不同特征进行比较,即,这些对比特征。 在具有挑战性的LFW和IJB-A上进行的大量实验表明,我们提出的对比卷积显着改进了vanillaCNN,并在人脸验证任务中实现了非常有前途的性能。关键词:人脸识别,卷积神经网络,对比卷积,核生成器1介绍人脸识别作为一种有效的生物特征认证方法,具有重要的实用价值.人脸识别的任务包括两大类:人脸识别和人脸验证,人脸识别是将给定的人脸分类为特定的身份,人脸验证是确定一对人脸是否具有相同的身份。人脸验证任务出现在广泛的实际场景中,例如,人脸手机解锁、使用人脸进行身份检查的远程银行开户、人脸电子支付、监控摄像头的犯罪跟踪等。虽然人脸识别技术已经研究了很长时间,但准确的人脸识别仍然存在很多挑战,这也是本文研究的重点。目前最有效的人脸验证解决方案是采用功能强大的CNN模型。为了验证给定的一对人脸A和B是否具有相同的身份,大多数基于CNN的方法通常首先将两个人脸馈送到CNN中以获得它们的特征表示。的相似性。2C.汉,S.山,M. Kan,S. Wu和X. 陈(a)(b)第(1)款图1.一、说明当同一张脸A与不同的人进行比较时,我们人类如何通过关注不同的脸特征来进行脸验证(a)当A与小眼睛的B1比较时,我们的注意力被吸引到A眼睛周围的区域;(b)当A与圆脸的B2比较时,我们更注意A的轮廓。这揭示了一张脸应该通过使用对比特征来不同地描述,例如,当与不同的人进行比较时。计算两个特征以确定它们是否是同一个人。由于一旦CNN的训练完成,卷积核的参数就被固定,因此所有面部都用相同的核进行处理,从而映射到公共的判别特征空间中。这意味着A的表征保持不变,无论与谁进行比较,并且这种表征必须具有足够的区别性,以将A与所有其他人区分开来,这是非常具有挑战性的。相比之下,当我们人类比较两张脸时,一张脸的观察由另一张脸的观察引导,即,发现差异并给予更多的关注,以便更好地区分两个面孔。以图1为例,将相同的面A与两个不同的面B1和B2进行比较。当与B1相比时,B1的特征是相对于A的眼睛较小,我们对A的看法将是在眼睛周围的一个实际的区域。当与其中面部围绕A的整体面部的B2进行比较时,我们将在自然地,当我们将一张脸与不同的人进行比较时,我们会以不同的方式描绘它,以便更准确地区分他们。受这一观察的启发,我们提出了一种新的CNN结构,我们称之为对比卷积,其内核经过精心设计,主要集中在这些不同的特征上,即,对比特征,在两个面孔之间,以便更好地验证它们。具体地,核生成器模块被设计为首先生成面部的个性化核。由于特定人的个性化核通常与其自身特征具有高度相关性,因此利用两个人脸的个性化核的差异作为对比卷积核,期望其关注差异基于对比卷积的人脸识别3在两张脸之间。这种对比卷积可以嵌入到任何类型的卷积神经网络中,在这项工作中,它被嵌入到流行的CNN中,形成了一个新的人脸验证模型,如图2所示,它被称为对比CNN。为了证明所提出的对比卷积的有效性,在具有挑战性的LFW和IJB-A数据集上进行了广泛的实验,我们的对比CNN实现了非常有前途的性能。本工作的其余部分组织如下:第2节回顾了与野生和自适应卷积中的人脸识别相关的工作第3节描述了所提出的具有对比卷积的深度卷积神经网络。第4节给出了实验结果,最后第5节总结了这项工作。2相关工作人脸识别是计算机视觉领域的一个重要而经典的研究课题,人脸特征学习在其中起着重要的作用。一个有表现力的特征描述符可以大大提高人脸识别的准确性。一些早期的工作主要集中在手工制作的功能,如着名的手工特征的区分能力很大程度上取决于设计原则,这可能不利于分类。更进一步,提出了一些基于学习的方法来学习更多信息,但 主 要 是 线 性 特 征 表 示 , 包 括 着 名 的 Eigenfaces [28] 和 Fisherfaces[3][6]。最近,深度卷积神经网络(CNN)因其出色的非线性建模能力而获得了巨大的性能改进[16][13]在[27]中,提出了一种CNN来提取通过一般3D形状模型与正面对齐的面部的深层特征,并且比许多传统 的 面 部 识 别 方 法 表 现 得 更 好 。 之 后 , 通 过 Deep ID2[7] 、 DeepID2+[26],人脸识别的性能进一步快速连续地提高,其甚至超过了人类在La b e le d Face in the W il d(LF W)上的人脸识别性能。最近的一些工作主要集中在探索更好的损失函数,以提高人脸识别的性能在[9]中,提出了一种名为FaceNet的方法,用于在没有对齐的情况下对大规模人脸图像进行训练,并且它在包括LFW [9]和YouTubeFaces[30]在内的多个具有挑战性的基准测试中达到了最先进的水平。在[18]中,提出了大边际softmax(L-Softmax)损失,以显式地减少个人内部变化,同时扩大个人之间的差异。在SphereFace [17]中,提出了一种新的角度softmax(A-Softmax)损失,并在MageFace挑战[21]中取得了优异的结果。尽管LFW和YTF数据集上的人脸识别性能已经达到人类水平[27,25,26,22],但在无约束环境[23](例如具有挑战性的IJB-A [14])中,人类性能与具有极端姿态,照明,表情,年龄,分辨率变化的自动人脸识别之间仍然存在差距,这主要是由于不同的感知机制。在那里-4C.汉,S.山,M. Kan,S. Wu和X. 陈因此,在这项工作中,受人类感知机制的启发,我们提出了一种新的对比卷积,以更好地进行人脸识别。自适应卷积有一些研究自适应卷积以进一步提高CNN的性能在[4]中,当与给定图像卷积时,对应于客观风格的核可以将给定图像从原始风格变换为在[38]中,提出了尺度自适应卷积以在场景解析期间获取灵活大小的感受野,以解决传统CNN中大对象的不一致预测和小对象的不可见性问题与我们的工作最相关的是动态输入条件核生成,据我们所知,其中包括动态卷积[15],动态滤波器网络[11]和自适应卷积[12]。我们的作品与那些作品有两个根本的不同首先,创建条件核的目的不同。[15,11]集中于图像预测任务,并且动态生成的滤波器主要用于预测像素在帧之间的移动[12]集中于监督学习,并且动态生成的内核旨在结合给定的边信息(例如,相机倾斜角度和相机高度)转换成图像特征。不同的是,我们的动态生成的内核试图突出两个图像之间的差异,以更好地进行人脸验证。第二,内核生成机制不同。在[15,11,12]中,仅根据一个输入生成核,因此相对于共同或一般特征表征输入的特定特征,而我们的对比核是根据一对图像创建的,其表征图像相对于另一个的特定特征。3对比CNN如上所述,传统的基于CNN的方法使用人脸图像的相同对比特征主要描述了两个人脸之间的不同特征,这些特征是通过本文提出的对比卷积来提取的。我们的方法的概述可以在图2中看到。具体地,被称为对比CNN的整个验证模型由主干CNN和内核生成器组成,形成连续的架构。卡车CNNC被设计用于基本特征表示,其在两个图像之间共享以提高效率,尽管其通常可以不同。基于这些基本特征表示,核生成器G产生用于面部图像的个性化核,试图突出面部相对于平均面部的对比核函数设计为两个人脸的个性化核函数的差异,试图突出两个人脸的对比特征通过与这些对比核执行卷积,分别提取两个人脸的对比特征用于相似度计算。基于对比卷积的人脸识别5对比卷积GT共享权G2G1内核生成器对比卷积图二.我们对比CNN的管道。给定一对人脸图像A和B,首先使用由若干级联卷积层组成的公共特征提取器C来获得它们的表达特征表示FA和FB。然后,由若干子生成器组成的核生成器G分别为A和B生成个性化的核,基于此,对比核被实现为|KA−KB|. 最后,利用这些对比核,通过卷积运算分别提取A和B注意在核生成器中S的下标*可以是A或B。3.1内核生成器将一对人脸图像表示为(A,B,LAB),其中A和B是人脸图像,LAB是它们的标签,LAB= 1表示A和B是同一个人,LAB= 0表示A和B是不同的人。从特征提取器C提取的A和B的特征图分别表示为FA和FB,即FA=C(A),FB=C(B)∈RhF×wF×cF(1)其中hF、wF和cF分别是通道的高度、宽度和数量内核生成器旨在产生特定于A或B的内核,其被称为个性化内核。以A为例,核生成器G将特征图FA作为输入,并输出一组个性化的核KA,通常如下配制:KA=G(FA)(2)给定仅一个面部图像A,即在没有参考面的情况下,不可能获得描绘对比特征的核。因此,在这里,所生成的内核Ka被期望突出A的那些内在和显著特征,这是构造对比卷积内核的基础。6C.汉,S.山,M. Kan,S. Wu和X. 陈i=1A一一一更重要的是,该核被设计为具有高的特征结构,如图2所示,在核生成器网络中存在多个层,每层一个子生成器,获得具有不同感受野的核,因为不同层通常具有不同尺度的特征图。通常,生成器G由多个层组成,例如T层,并且在每一层上设计子生成器,总共形成T个子生成器:G={g1,g2,...,gT}。(三)具体地,将来自第i层的特征图表示为Si|不,其中包括通常通过使用卷积或全连接操作获得第(i-1)层的特征图,即,Si−1,其中S0=F。在每一层上,子生成器gi被构造为生成如下相同尺度的一组内核:Ki ={ki1,ki2,., kiN1},⑷A a aA其中Ni是从gi生成的核的数量。期望每个核kij描绘面部图像A的局部分量的特征,通过使用局部块作为输入来实现kij=gi(pij),(5)A Apij=R(Si,cij,hK,wK),(6)AA当pij是从Si中复制的所有文件时中心在cij,高度为hK,A A和宽度wK。这里,R表示图像裁剪操作。通常这些可以在规则网格处进行修补,以便于实施。子生成器gi可以是任何种类的深度网络结构,诸如卷积层或全连接层,并且小的子生成器是优选的。在我们所有的实验中,gi只包含一个完全连接的层。来自一个子生成器的核共享相似的感受野,但聚焦于不同的分量。来自不同子生成器的核具有不同的感受野,关注不同尺度的特征总而言之,可以如下获得一组个性化内核作为来自所有子生成器的内核的并集:KA={k11,…k1 N1,…,k ij,...,kT1,…,k TNT}。(七)Aa aaA从生成器G生成的个性化内核被期望捕获图像的固有特性,而不管姿态、光照、表情等,导致等式(1)中的损失(15)、可以类似地生成B的个性化内核Kb基于对比卷积的人脸识别7一BABABABABABAB一B最后,对比核被实现为两个面部图像的个性化核的差异,试图仅关注两个面部之间的那些不同特征并减去共性,公式如下:K AB= |K A− K B|.(八)在测试阶段,通过考虑两个待比较的人脸,动态生成对比核函数如图4中所示,由Eq. (8)如所期望的,对这些不同特征具有高响应,而对两个面部之间的那些共同特征具有低响应3.2对比卷积对比卷积与常规卷积非常相似,不同之处在于对比卷积中使用的核是根据测试过程中比较的不同对动态生成的当比较一对面部图像A和B时,通过将FA和FB与对比内核KAB卷积来提取A和B之间的对比特征,如下所示:OFB=KABFA=KABFA=[k11OFB=[k11FA;···;kijFB;···;kijFA;···,kTNTFB;···,kTNTN N其中表示逐元素卷积。KAB FA表示每个对比集合KAB中的核与FA卷积。利用A和B的对比特征表示,使用简单的线性回归和随后的S形激活来计算相似性SB和A和B之间的SA如下:SB=σ(FB·W)(11)A一SA=σ(FA·W)(12)BBX这里,σ是sigmoid函数,其中σ(x)=e·表示点积。1+eA和B之间的最终相似度Sab被计算为A和B之间的相似度Sab的平均值。两个相似点,即S= 1(SB+ SA)。(十三)AB2A B3.3总体目标利用对比卷积,来自同一个人的一对图像之间的相似度预期为1,即sAB= 1和来自不同人的8C.汉,S.山,M. Kan,S. Wu和X. 陈期望为0,即s AB= 0。交叉熵损失用于最大化相同面部对的相似性,同时最小化不同面部对的相似性,如下所示:minC、G、W1L1=−NΣ甲乙丙[LABlog(SAB)+(1−LAB)log(1−SAB)](14)这里,N表示面对的数量,LAB是A和B的面对的标签,其中LAB= 1表示正面对,LAB= 0表示负面对。此外,期望个性化内核捕获面部的固有特征,这意味着即使具有各种姿势、光照或表情,同一人的面部图像的个性化内核也应该具有高相似性,从而形成以下的另一交叉熵损失:L =−122NΣΣlAlog(H(KA))+一ΣΣlBlog(H(KB))B(十五)其中lA∈ {0, 1}M和lB∈ {0, 1}M分别是A和B的单位码,单位码的形式为独热码,人数为M。这里,H(K)∈RM×1是一个小网络,用于将内核回归到用于分类的独热代码。总的来说,我们的CNN与对比卷积的目标函数可以用公式表示如下:minC、G、W、HL1+αL2(16)α是一个平衡参数,在我们的实验中,除了特殊说明外,α被设置为1。这个目标可以通过使用与大多数基于CNN的方法相同的梯度下降来轻松优化4实验在本节中,我们将使用对比卷积来评估我们提出的CNNw.r.t.不同的架构,并与两个野生挑战性数据集上的人脸验证任务的最新方法进行比较:Labeled Faces in the Wild(LFW)[10]和IARPA JanusBenchmark A(IJB-A)[14]。4.1实验设置数据集使用三个数据集进行评价。CASIA-WebFace [35]数据集用于训练,LFW [10]和IJB-A [14]数据集用于训练进行测试。每个数据集的详细信息如下。CASIA-WebFace [35]数据集是一个大规模的人脸数据集,包含-从互联网上收集了大约10,000个主题和500,000张图像。这基于对比卷积的人脸识别9表1.在我们的方法中使用的CNN的架构分别具有4、10、16层。Conv1.x、Conv2.x 、 Conv3.x 和 Conv4.x 表 示 包 含 多 个 卷 积 单 元 的 卷 积 层 。 例 如 ,conv[256,3,1]表示与256个大小为3× 3的滤波器和步长为1的卷积。max[3,2]表示大小为3× 3且步幅为2的区域内的最大池化。在具有10层和16层的CNN中,残差网络结构用于更好的性能,并且残差单元在双列括号中示出。在最后一个对比卷积层中,卷积与常规卷积相同,除了其内核在测试期间动态生成。层4层CNN10层CNN16层CNN输入112 × 112 × 3Conv1.xconv[64,3,1]conv[64,3,1]conv[64,3,1]Pool1最大值[3,2]Conv2.xconv[128,3,1]Σconv[128,3,Σ1]conv[128, 3,1]×1conv[128, 3,1]Σconv[128,3,Σ1]conv[128, 3,1]×2conv[128, 3,1]游泳池2最大值[3,2]Conv3.xconv[256,3,1]Σconv[256,3,Σ1]conv[256, 3,1]×2conv[256, 3,1]Σconv[256,3,Σ1]conv[256, 3,1]×3conv[256, 3,1]池3最大值[3,2]Conv4.xconv[512,3,1]conv[512,3,1][512, 3, 11]conv[512,3,1]×1conv[512,3,1]池4最大值[3,2]对比转换conv[14,3,1]conv[14,3,1]conv[14,3,1]686维度特征数据集通常用于开发用于野外人脸识别的深度网络,例如[35,8,18,17]。LFW数据集[10]包括来自5,749个不同身份的13,233张人脸图像,其中姿势,表情和照明变化很大 在这个数据集上,我们遵循标记外部数据的标准无限制协议,即在外部标记为CASIA-WebFace上进行训练,并在来自LFW的6,000个人脸对上进行测试。请参阅[10]了解更多详情。IJB-A数据集包含5,712张图像和2,085个视频,来自500个从野生环境中捕获的主题。由于头部姿势、光照、表情和分辨率的极端变化,到目前为止,IJB-A被认为是用于验证和识别的最具挑战性的数据集。图3中可以看到来自IJB-A的受试者的几个示例图像。该数据集上的标准协议通过使用基于模板的方式执行评估,10C.汉,S.山,M. Kan,S. Wu和X. 陈图三.来自IJB-A数据集的人的示例图像。注意头部姿势、表情和图像分辨率的极端变化。而不是基于图像或基于视频。模板可以包括对象的图像和/或视频。预处理对于所有三个数据集,[31]首先用于检测人脸,然后根据从CFAN [37]获得的五个地标(2个眼睛中心,1个鼻尖和2个嘴角)将每个检测到的人脸与标准人脸对齐,最后将所有对齐的图像调整为128× 128用于训练或测试。CNNTensorflow的设置用于实现我们所有的实验。为了对我们的方法进行广泛的研究,分别评估了基础层为4,10和16的对比CNN三个CNN的详细设置请注意,我们的对比CNN的最后一个卷积层中的内核是在测试阶段动态生成的我们还将我们的对比CNN与传统CNN进行了比较,传统CNN是通过向基础CNN(称为L-VanillaCNN)添加额外的层来构建的,因此它具有与我们相同的网络结构,以便进行公平比较。两种方法的批量均为128,即基线模型有128张图像,我们的模型有64对在我们的方法中使用的人脸图像对是从CASIA-WebFace中随机选择的,在训练时正对和负对之间具有相同的可能性个性化核的长度在用于计算对比核之前被归一化为所有模型都是以200K的迭代进行训练的,开始时的学习率为0.1,0.01和0.001,100K迭代和160K迭代。我们的对比CNN设计有3个子生成器,分别生成9,4和1个对比内核,即T= 3,N1 = 9,N2 = 4,N3 =1。4.2对比性回旋对比卷积的有效性为了显示对比卷积的改进,我们将对比CNN与我们提到的CNN进行了比较。基于对比卷积的人脸识别11表2. vanilla CNN和我们的对比CNN之间的比较。它们共享相同的架构以进行公平比较。方法损失LFW的mAcc(%)IJB-A上的TAR(%)@FAR0.10.010.001L-香草CNN对比CNN成对损失91.8095.2064.1378.7322.4352.515.8831.37L-香草CNN成对损失97.5088.4371.5152.72对比CNN+Softmax损失98.2090.2474.5558.04表3.我们的对比CNN在LFW上具有不同数量的子生成器,在平均准确度(mAcc)方面和IJB-A在FAR的TAR(%)方面的性能= 0.1、0.01和0.001。#子生成器LFW上的mAccIJB-A上的TAR(%)@FAR0.10.010.001197.8387.0664.9537.32298.1789.9275.0857.08398.2090.2474.5558.04作为L-Vanilla CNN,它是通过向基础CNN添加与我们的内核生成器具有相似结构的附加层来构建的,因此它具有与我们相同的网络结构。在我们的对比CNN中,Eq.(15)用于使特定人脸图像的个性化核捕获固有特征,而不管姿态、光照或表情。因此,在两种情况下进行比较,一种是成对损失+ softmax损失,另一种是仅成对损失。结果示于表2中。可以看出,对于vanilla CNN和我们的对比CNN,softmax损失+成对损失的结果优于仅使用成对损失的结果,证明了softmax损失的优越性,如[33]中所述。更重要的是,对于softmax损失+成对损失和仅成对损失的两种情况,我们提出的对比卷积比传统卷积表现得更好,在FAR = 0.01时提高了30%这些比较清楚而令人信服地表明,我们的对比CNN可以显着改善传统CNN。对比卷积子生成器的数量我们的内核生成器采用由多个子生成器组成的分层结构进行组织,其中从不同子生成器创建的内核配备有不同的尺度。在这里,我们调查的子生成器的数量的影响,即。三个对比的CNN,其子生成器的数量为1,2,3,re-cnn。12C.汉,S.山,M. Kan,S. Wu和X. 陈表4.在FAR = 0.1、0.01、0.001下,我们的对比CNN在LFW上的平均准确度(mAcc)和在TAR上的IJB-A上具有不同基础CNN的结果分别评估具有层4、10、16的三个基本CNN结构,其中架构在表1中详述。#基本CNN的层数LFW的mAccIJB-A上的TAR(%)@FAR0.10.010.001498.2090.2474.5558.041098.9393.1780.3561.831699.1295.3184.0163.91A B1B2B3B4B5B6B7B8B9B10见图4。当与图像B 1 B 10进行比较时,给定图像A的对比CNN和Vanilla CNN的特征图。对比CNN的这些特征图主要集中在眼睛和眉毛区域。因此,在表1所示的4层CNN中依次存在9、13、14个对比核。具有不同数量的子生成器的对比CNN的性能可以在表3中找到,其中性能随着子生成器数量的增加而不断提高。对比卷积 为了进一步研究,我们展示了我们与不同基础CNN的对比卷积。具有4、10和16层的三种类型的架构用于评估,并且结果在表4中示出。可以看出,我们的对比CNN的性能随着基础CNN深度的增加而不断提高。对比特征和普通特征的可视化比较为了进一步验证那些对比内核可以捕获被比较的两个面部之间的差异。我们在图中从我们的对比CNN和vanilla CNN中可视化这些特征图。4.具体地,将图像A与从B1到B10的10个图像进行比较。可以看出,我们的对比度的高响应CNN仅位于A与所比较的图像不同的区域中,而对比CNN香草CNN低响应高响应基于对比卷积的人脸识别3香草CNNA1B1对比CNN图五、 来自对比CNN和vanilla CNN的特征图在玩具数据上的图示,用于A1与B1的比较,以及A2与B2的比较。表5.在平均准确度(mAcc)方面比较LFW。* 表示外部数据是私有的(不可公开)。方法#型号深度数据LFW上的mAcc[27]第二十七话374M*97.35DeepID2+[26]15300K*98.70[22]第二十二话1152.6M98.95[25]第二十五话114200M*99.65Yi等人[35]第三十五届110WebFace97.73Ding等人[八]《中国日报》114WebFace98.43[第18话]117WebFace98.71[第17话]164WebFace99.42对比CNN(我们的)116WebFace99.12传统CNN的高响应分散在整个图像上。此外,设计了一个填充简单几何图案的图像的玩具实验,以更明显地说明我们的对比CNN和传统CNN的特征图,可视化如图所示。5.这两个实验都清楚地表明,我们的对比CNN可以专注于两张脸之间的不同特征,以进行比较。4.3与现有方法的比较此外,我们提出的方法进行了比较,与一些国家的最先进的方法。在该实验中,使用具有16层的对比CNN进行公平比较,因为大多数现有方法都配备有大型架构。所有方法均在LFW和IJB-A数据集上进行测试,如表5和表6所示在表5中,所提出的对比卷积优于本文所描述的所有方法香草CNN对比CNN高一个2B2低14C.汉,S.山,M. Kan,S. Wu和X. 陈表6.在FAR= 0.1、0.01和0.001时,与IJB-A的TAR(%)比较。GOTS和OPENBR的结果来自[14]。值得注意的是,我们的对比CNN没有在IJB-A的训练分割上进行微调,而其中一些方法,如[5][24]在IJB-A的训练分割上进行微调,以获得更好的性能。方法IJB-A上的TAR(%)@FAR0.1 0.01 0.001OPENBR43.323.610.4GOTS62.740.619.8ReST [32]-63.054.8[29]第二十九话89.372.951.0PAM [20]-73.355.2DR-GAN [19]-75.551.8深度多姿势[1]91.178.7-[24]第二十四话94.579.059.0联合贝叶斯[5]96.181.8-对比CNN(我们的)95.3184.0163.91在具有合理层数的WebFace上训练。在表6中,我们的方法在IJB-A上实现了TAR = 63.91%(FAR = 0.001)的最佳结果,这证明了我们对比CNN的有效性。5结论在这项工作中,我们提出了一种新的CNN架构,我们称之为用于人脸验证的对比卷积。我们的方法不是在传统的CNN中提取人脸对比卷积由于其基于被比较的一对面部动态生成对比核而是有益的所提出的对比卷积可以并入任何种类的CNN架构中。正如在LFW和IJB-A两个野生基准测试中所评估的那样,对比CNN实现了有希望的性能,并取得了显着的改进,证明了其有效性。6确认本工作部分得到国家重点研究发展计划基金2017YFA0700804,国家自然科学基金项目61390511、61650202和61772496。基于对比卷积的人脸识别5引用1. AbdAlmageed,W.,吴,Y.,Rawls,S.,Harel,S.,Hassner,T.,马西岛崔,J.,Lekust,J.,金,J.,Natarajan,P.,等:使用深度多姿态表示 的 人 脸 识 别 。 IEEE Winter Conference on Applications of ComputerVision(WACV)(2016)2. Ahonen,T.,Hadid,A.,Pietikainen,M.:局部二值模式的人脸描述:在人脸识别中的应用IEEE Transactions on Pattern Analysis and MachineIntelligence(TPAMI)(2006)3. Belhumeur , P.N. , Hespanha , J.P. , 克 里 格 曼 , D.J. : 特 征 面 与Fisherfaces:识别使用类特定的线性投影。IEEE Transactions on PatternAnalysis Machine Intelligence(TPAMI)(2002)4. Chen,D.,中国农业科学院,Yuan,L.Liao,J.,Yu,N.,Hua,G.:StyleBank:神经图像风格传递的显式表示IEEE计算机视觉与模式识别会议(CVPR)(2017)5. Chen,J.C.,帕特尔,V.M.,切拉帕河:使用深度CNN特征进行无约束人 脸 验 证 IEEE Winter Conference on Applications of Computer Vision(WACV)(2016)6. Chen,J.C.,帕特尔切拉帕河:用于基于视频的人脸验证的基于地标的Fisher矢量表示IEEE International Conference on Image Processing(ICIP)(2015)7. 陈玉,陈玉,王,X.,唐X:通过联合识别-验证的深度学习人脸表示。神经信息处理系统(NIPS)进展(2014)8. Ding,C.,Tao,D.:通过多模态深度人脸表示的鲁棒人脸识别IEEETransactions on Multimedia(TMM)(2015)9. Huang,G.B.,Learned-Miller,E.:在野外贴上标签的脸:更新和新的报告程序。在:部门Comput.科学,马萨诸塞大学阿默斯特分校,阿默斯特,马萨诸塞州,美国,技术。Rep(2014)10. Huang,G.B.,Mattar,M.,Berg,T.,Learned-Miller,E.:在野外贴上标签的脸:用于研究无约束环境中人脸识别的数据库(2007)11. Jia,X.,De Brabandere,B.,Tuytelaars,T.,古尔,L.V.:动态过滤网络。在:NIPS(2016)12. Kang,D.,Dhar,D.,Chan,A.:通过自适应卷积合并边信息In:NIPS(2017)13. Karpathy,A.,Toderici,G.,Shetty,S.,Leung,T.,Sukthankar河李菲菲:用卷积神经网络进行大规模视频分类。IEEE计算机视觉和模式识别会议(CVPR)(2014)14. Klare,B.F.,克莱因湾Taborsky,E.,Blanton,A.:推动无约束人脸检测和识别的前沿:Iarpa janus基准a IEEE计算机视觉与模式识别会议(CVPR)(2015)15. 克莱因湾沃尔夫湖Afek,Y.:用于短期天气预测的动态卷积层参见:CVPR(2015)16. Krizhevsky,A.,萨茨克弗岛Hinton,G.E.:使用深度卷积神经网络的ImageNet分类。神经信息处理系统(NIPS)进展(2012)17. 刘伟,Wen,Y.,于志,Li,M.,Raj,B.,Song,L.:Sphereface:用于人脸识别的深度超球面嵌入。IEEE计算机视觉与模式识别会议(CVPR)(2017)16C.汉,S.山,M. Kan,S. Wu和X. 陈18. 刘伟,Wen,Y.,于志,Yang,M.:卷积神经网络的大利润softmax损失。国际机器学习会议(ICML)(2016)19. Luan,T.,Yin,X.,刘X:解纠缠表示学习GAN用于姿态不变人脸识别。IEEE计算机视觉与模式识别会议(CVPR)(2017)20. 马西岛Rawls,S.,Medioni,G.,Natarajan,P.:野外姿态感知人脸识别。IEEE计算机视觉与模式识别会议(CVPR)(2016)21. Miller , D. , Brossard , E. , Seitz , S. , Kemelmachershlizerman , I. :MegaFace : 一 百 万 张 面 孔 , 用 于 大 规 模 识 别 。 arXiv 预 印 本 arXiv :1505.02108(2015)22. 帕克希O.M. Vedaldi,A.,齐瑟曼,A.:深度人脸识别。在:英国机械视觉会议(BMVC)(2015)23. P hillips,P. J.Hill, M. 问: Swindle,J. 一、 哦 , 天哪 , A。J. :Hummanandalgoritme-performance on the pasc face recognition challenge.生物识别理论,应用和系统(BTAS)(2015)24. Sankaranarayanan,S.,Alavi,A.,切拉帕河:用于人脸验证的三元组相似性嵌入arXiv预印本arXiv:1602.03418(2016)25. Schroff,F.,Kalenichenko,D. Philbin,J.:FaceNet:用于人脸识别和聚类的统一嵌入。IEEE计算机视觉与模式识别会议(CVPR)(2015)26. Sun,Y.,王,X.,唐X:深度学习的人脸表示是稀疏的、有选择性的和鲁棒的。IEEE计算机视觉与模式识别会议(CVPR)(2015)27. Taigman,Y.,杨,M.,Ranzato,M.,沃尔夫湖:DeepFace:缩小人脸验证中与人类水平性能的差距。IEEE计算机视觉和模式识别会议(CVPR)(2014)28. 特克文学硕士Pentland,A.P.:使用特征脸的人脸识别IEEE计算机视觉和模式识别会议(CVPR)(2002年)29. Wang,D.,中国科学院,奥托角Jain,A.K.:大规模人脸搜索IEEETransactions on Pattern Analysis and Machine Intelligence ( TPAMI )(2017)30. 沃尔夫湖Hassner,T.,Maoz,I.:背景相似度匹配的无约束视频中的人脸识别。IEEE计算机视觉和模式识别会议(CVPR)(2011)31. 吴,S.,Kan,M.,他,Z.,Shan,S.,Chen,X.:基于漏斗结构级联的多视角人脸检测算法。神经计算(2017)32. 吴伟,Kan,M.,Liu,X.,中国科学院院士,杨,Y.,Shan,S.,Chen,X.:递归空间变换器(ReST)用于无对齐人脸识别。在:IEEE国际计算机视觉会议(ICCV)(2017)33. 吴,Y.,刘洪,李杰,Fu,Y.:中心不变损失的深度人脸识别在:ACM多媒体主题研讨会(2017)34. Xie,S.,Shan,S.,陈旭,Chen,J.:融合Gabor幅值和相位局部模式的人脸识别。IEEE Transactions on Image Processing(TIP)(2010)35. Yi,D.,Lei,Z.,Liao,S.,李S.Z.:从头开始学习人脸表示。ArXiv预印本arXiv:1411.7923(2014)36. 张 , B. , Shan , S. , 陈 旭 , Gao , W. : Gabor 相 位 模 式 直 方 图(HGPP):一种用于人脸识别的新型对象表示方法IEEE Transactionson Image Processing(TIP)(2007)37. 张杰,Kan,M.,Shan,S.,Chen,X.:通过深度回归网络利用具有不同 符 号 的 数 据 集 进 行 面 部 对 齐 。 IEEE International Conference onComputer Vision(ICCV)(2015)基于对比卷积的人脸识别738. 张,R.唐,S.,张玉,李杰,Yan,S.:用于场景解析的尺度自适应卷积。IEEE International Conference on Computer Vision(ICCV)(2017)
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 利用迪杰斯特拉算法的全国交通咨询系统设计与实现
- 全国交通咨询系统C++实现源码解析
- DFT与FFT应用:信号频谱分析实验
- MATLAB图论算法实现:最小费用最大流
- MATLAB常用命令完全指南
- 共创智慧灯杆数据运营公司——抢占5G市场
- 中山农情统计分析系统项目实施与管理策略
- XX省中小学智慧校园建设实施方案
- 中山农情统计分析系统项目实施方案
- MATLAB函数详解:从Text到Size的实用指南
- 考虑速度与加速度限制的工业机器人轨迹规划与实时补偿算法
- Matlab进行统计回归分析:从单因素到双因素方差分析
- 智慧灯杆数据运营公司策划书:抢占5G市场,打造智慧城市新载体
- Photoshop基础与色彩知识:信息时代的PS认证考试全攻略
- Photoshop技能测试:核心概念与操作
- Photoshop试题与答案详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)