没有合适的资源?快使用搜索试试~ 我知道了~
612912一种质量感知的样本间比较人脸识别方法Mohammad Saeed Ebrahimi Saadabadi,Sahar Rahimi Malakshan,Ali Zafari,Moktari Mostofa和Nasser M. 纳斯拉巴迪me00018,sr00033,az00004,mm0251@mix.wvu.edu,nasser. mail.wvu.edu摘要目前可用的人脸数据集主要由大量高质量样本和少量低质量样本组成。因此,人脸识别(FR)网络无法学习低质量样本的分布,因为它们在训练期间不太频繁(代表性不足)。此外,当前最先进的FR训练范例是基于样本与中心的比较(即,基于softmax的分类器),这导致训练和测试指标之间缺乏一致性。这项工作将样本水平的质量感知学习过程在这方面,Softmax中心通过使用质量感知功能自适应地引导更多地关注低质量样本。因此,QAFace在基于Softmax的分类器的更新过程中增加了基于质量的我们的方法自适应地发现和作为-标志更多的关注可识别的低质量样本的训练数据集。此外,QAFace使用特征幅度作为质量的代理来忽略不可识别的低质量样本。因此,QAFace可以防止班级中心偏离最佳方向.在CFP-FP、LFW、CPLFW、CALFW、CALDB、IJB-B和IJB-C数据集。1. 介绍FR性能的最新进展可以归功于新的网络架构,大规模数据集和新的损失函数的引入[23]。关于架构,ResNet及其变体主要用作从面部图像中提取特征的主干[11]。在数据集方面,大规模公开可用的训练数据导致FR性能的前所未有的改善[13]。最近对FR的尝试主要集中在操纵训练标准[25,40,11,32,39,42]。以这种方式,Softmax具有交叉熵损失,即,图1.一个二进制分类的例子表明,不可识别的样本可以误导Softmax中心,w1和w2,从他们的最佳方向。带有黑色实线边框的圆圈是可识别的低质量样本,黑色虚线边框是不可识别的样本。gi表示中心被推动的方向。 a)没有注射,就没有g,b)同样注入样本导致来自具有更大角度视差的样本的更强的g,以及c)注入时强调可识别的低质量样本而忽略不可识别的(不存在朝向不可识别的g)。 阴影区域是指特征注入导致中心移动。注意g1g′和g2θ1和θ4>θ3。最近工作的主要思想是随着样本和Softmax中心之间的角度差异增加而增加裕度约束[46,23,18]。然而,所提到的任何方法都没有考虑样本的可识别性和样本的相似性。因此,该模型试图通过对无法识别的样本进行过拟合来减少训练损失,这会损害模型的泛化能力[13]。最近,[12]中的作者通过向中心注入样本表示将样本间比较集成到Softmax中。尽管VPL [12]为Softmax框架带来了样本间比较,但前提假设是无法识别的样本不会影响学习。由于较大的角度差异,在不考虑样本可识别性的情况下注入,在注入过程中更侧重于不可识别的样本,见图。1.向unrec添加变化-可识别的样本损害了模型学习范式,并将Softmax中心从最佳方向转移。注射过程直接改变中心。因此,重要的是将中心推向有效的方向。样本选择策略在每个样本FR训练范例中都是必不可少的[32,23]。在这项工作中,我们试图根据它们的可识别性和质量来衡量样本。以这种方式,所提出的方法(QAFace)的样品部分(进样)受益于可分解的低质量(硬)样品。在训练过程中,QAFace有效地忽略了无法识别的样本,并防止类中心偏离最佳方向。同时,QAFace将低质量样本视为硬样本,强调低质量样本.此外,由于高质量的样本被训练的样本到中心部分很好地探索与[12]相比,我们的方法没有增加额外的内存消耗和采样策略。所提出的模型使用MOCO [16]对样本表示进行排队,以保持样本和中心在同一嵌入空间上。这项工作的贡献可归纳如下:• 我们使用提供信息的硬样本(低质量实例)来引入对角度裕度Softmax损失的逐样本比较。• 我们提出了一种新的基于质量的加权函数,其可以基于不可识别的样本的特征表示的幅度作为图像质量的代理来有效地去强调• 我们利用硬样本来向Softmax中心添加朝向硬样本方向的不确定性。2. 相关作品2.1. FR损失函数大多数以前的FR方法都是建立在度量学习损失函数上的,例如三重[32]或对比损失[8,30]。这些损失函数基于欧氏空间中的样本间比较。然后[43] 通过提出一种新的损失来直接最小化分类时的类内距离,提高了类内相似度以这种方式,对一般FR的主要挑战是样本挖掘的必要性,缺乏泛化和特征折叠问题[40,32,15]。最近,研究表明,将Softmax应用于角空间增强了特征的可辨别性[25,40,11,43]。因此,[39,40,11]的开创性工作通过将三种不同类型的余量应用于Soft-max的角空间来引入直观的损失函数:1)乘法角余量,2)余弦余量,6131Σ−yi∈NΣCyij=1j=yiJ我图2.相同的增强,即,下采样和随机裁剪,导致不同的样本之间的可识别性绿色边框显示可识别的样本,红色显示不可识别的样本.以及3)附加的角裕度,导致最先进的性能。2.2. 角缘变化最近的研究探索了自适应角裕度对网络学习范式的影响[46,23,23]。Liu等人。 [23]提出自适应调整边缘值,以对尾部类施加更多约束。在[18]中研究了阴性样本在获得更多区分特征中的作用。[14]的作者在角距损失函数中加入了新的项,以监督类中心在单位超球面上的均匀分布。MagFace [28]建立了特征的规范作为样本可识别性的代理。图像可识别性随着特征范数的增加而增加[28]。MagFace在推动这些样本更接近其类中心的前提下,在高范数特征上分配高角度裕度。在[12]中的整个记忆过程中,将所有的表示投影到单位超球面上,导致了记忆中不同实例的相等数量。因此,由于与中心的大的角度差异,不可分辨的样本使中心偏离其最佳方向,参见图11。第1段(b)分段。3. 该方法在本节中,我们首先分析基于Softmax的损失函数。然后,我们进一步解释了基于Softmax的分类器与样本到样本组合的集成。我们设计了一个新的注入函数,将 质 量 感 知 的 样 本 到 样 本 比 较 集 成 到 分 类 框 架(QAFace)中。最后,我们研究了我们的方法忽略不可识别样本的能力以及我们的质量感知注入对基于Softmax的损失函数的学习信号的补充作用。3.1. 预赛大多数深度视觉识别模块,包括FR,可以被视为非线性特征提取器层(骨干)的堆栈,以及通常是Softmax层的分类器主干和分类器都将使用反向传播算法进行端到端的训练。Softmax训练标准可以用公式表示如下[1,20]:缺点是它没有把重点放在有价值的硬样品。此外,上述方法中没有一种保证样本的相似性。此外,用单个确定性点表示每个身份,即,中心,NL=1NlogeW Txi+byeW Txi+by公司简介WTx+b,(1)eij当测试数据与训练样本有很大的差异2.3.概率人脸建模概率人脸建模在人脸模板/视频匹配中得到了很好的建立[5,3]。在这些作品中,一系列的样本被用作输入,而不是一个单一的人脸图像。Shi等人首次将不确定性集成到单个图像FR中[34]。PFE [34]将每个图像表示为高斯分布。高斯的均值和方差反映了其中W jRd是第j个分类器(中心),d是特征维度,bj是第j个Softmax输出的偏置。xi是第i个样本的学习表示,yi是其对应的基础真值。N和C分别表示小批量大小和类的总数通过Softmax loss学习的表示的角分布xi建议使用余弦距离作为度量,而不是欧几里得距离[39]。因此,通过将中心和表示投影到单位超球面来定义修改的Softmax损失[39,25],||为||Xi||= 1且b j = 0。||=1and bj=0.N“不确定性的特征值”,分别[34]。目标是向模型中添加不确定性以提高性能L′= −1es(cos(θyi))日志es(cos(θy))+es(cos(θj)),(2)对于具有大差异的不可见数据[6]。 而不是添加由于每个图像表示的不确定性,VPL [12]为分类框架内的每个类别分配一个分布。具体来说,VPL将类实例注入到相应的分类器中,以给中心带来更多的不确定性,同时将样本到样本的比较集成到分类范例中。然而,它没有考虑到图像可识别性措施。考虑其中cos(θyi)反映xi和wyi之间的余弦相似性,cos(θj)表示xi和wj(n个中心)之间的相似性 s被引入作为影响输出曲线的缩放超参数[46],见图。6.在常见的FR实践中,从Eq.1是─因为它们是为闭集识别而学习的,不能推广到开集测试。i=1我i=1j=1j=yi我6132x 我Σi,yiyi,jJIΣeNNΣ1eS我一CxiSphereFace [25]引入了乘法角域来修改cos(θ)=cos(θ)的决策边界我i、j我˜图3.左:所提出的方法的一般架构。在每次迭代中,类中心表示先前迭代的硬样本的中心和累积特征。从动量主干出发,得到了注入到中心的表达式。右图:显示了动量骨干参数的更新。为了增强类内紧致性和类间可分性,作者在[39,40,11]中通过将三种不同类型的边缘应用于方程,开发了直观的损失函数2.对于主干,我们显示了关于其输出(特征)的梯度,即,L通过省略等式中的偏差,1对第j类中心和第i个样本CNs(cos(m θy+m)−m)L=((p−1)W)+L=−Ni=1日志 es(cos(mSθyi +mA)−mC)+Cj=1j=yi、scos(θj)(三)LW=((pi=1j=1j=yi-1)x)+px,i=11 2yi=j到yijcos(mSθ1)=cos(θ2)。式中(θ1)θ2表示角β-T吐温X i和(W yi)W j. 他们对Softmax的修改其中pi、jeWjxiCeWT xi.当量四是从后面看--改善效果;然而,提出的损失函数是通过一系列近似计算的,这导致了不稳定的训练[40]。CosFace将决策边界修改为cos(θ1)+mC=cos(θ2),Arc Face发生变化它是cos(θ1+mA)=cos(θ2)。 当量3代表所有的男人-的修改。 其中,mS、mC和mA是利润率[25],CosFace [40]和ArcFace [11]分别介绍尽管有显著的改进,但在这些修改中的任何一个中都没有考虑样本方面的(不)相似性此外,当训练和测试数据之间存在显著差异为了更好地说明,我们通过手动降级五个高质量的测试数据集进行实验。比较表1中的Arcface和VPL的结果,VPL中较小的性能差距表明,向Softmax中心添加不确定性可以更好地处理训练数据集和测试数据集之间的质量差异比较QAFace和VPL的结果,表明我们提出的方法可以进一步缩小高分辨率图像之间的差距,j=1从骨骼的角度来看,网络正在向内部更新增加特征与正类中心之间的相似性,同时降低与负类中心的相似性此外,Eq. 5表明中心更新到更类似于它们相应的类实例并且远离其他类的样本。因此,主干和中心都朝向彼此移动,并且样本方面的(不)相似性被间接地监督。3.3.使用Softmax进行为了直接监督样本(不)相似性,[12]将样本特征注入到它们相应的类中心。为此,构建了一个记忆体M,它记忆每个类的积极特征。内存与Softmax的形状相同中心:W∈RC×d,M∈RC×d。考虑注入过程为:Wyi=Wyi+λMyi,关于特征的导数变为:C和低质量的样品,在注射过程中更加强调低质量的样品。L=((pxii,yi-1)(Wyi+λMyi ))+pj=1j=yii、j(Wj+λMj),(六)3.2.分类梯度我们可以将基于Softmax的FR方法分为其骨干和分类器组件。因此,在这里我们分别研究Softmax的主干和中心这里,记忆的特征M影响更新主干的梯度。因此,样本到样本(不)相似性被直接监督。λ是调整注射量的超参数,并且应当=′′(四)i,yiJ(五)J6133我0其他。ˆ||||我|||| ∗|| ||||X||我||||−我我我σ图4.从10k个随机选择的训练图像及其下采样版本中获得的特征幅度直方图。早期阶段:时期一到四的直方图的平均值。中期:第10至15个时期直方图的平均值。最后阶段:20至24个时期的直方图平均值。上(前)和下(后)应用方程。10个。手动设置。在这种注入方式中,所有的表示首先被投影到单位超球体。因此,与Softmax中心有较大角度差异的不可识别样本对中心的影响要大于其他样本。因此,中心将偏离最佳方向。另一方面,高质量的样本与类中心有很高的相似性图5.在训练的最后阶段,关于特征范数的左:模型忽略的样本中:正在强调的示例。右:具有高特征范数的样本。表1. Arcface、VPL和我们的方法在不同下采样版本的LFW、CFP-FP、CALFW、CPLFW、CARDB上的性能(%)。报告1:1验证精度决议LFWCFP-FP CPLFW CALFW AgeDBArcFace8×816×16原始71.8696.6099.8356.9284.2198.2756.4382.7692.0857.5684.3095.4554.4878.2098.28VPL8×816×16原始71.9697.3099.8360.7585.9899.1157.7883.5393.4559.5684.6196.1252.4579.0698.60QAFace8×816×16原始72.7698.2699.8559.6289.5799.2157.6586.7594.4159.9388.2096.1154.1683.5697.91并且不会增加中心的受益人变化。F(|^|X||)=.e−|^|Xi|| 如果|^|Xi||≥−τ,(十一)3.4. 质量感知样品进样为了解决分类框架的上述缺点,防止Softmax中心被发现,并探索可识别的低质量样本,我们提出了QAFace,一个质量感知的注入过程。该方法忽略了不可识别的样本,同时使用可识别的低质量样本来增加中心的有效不确定度。注射过程如下:等式10和11一起工作的方式是:1)x低于-τ的样本不会影响中心,2)可识别但低质量的样本将在ing训练,和3)高质量的样本将收到更少与可识别的低质量样品相比,注意力。在基于度量的FR训练范例中使用信息样本已经得到了很好的建立[32]。因此,采用信息样本来为分类框架添加样本方面的可比性是最重要的。我们提出的算法自适应:(1)分配更多WYI =Wyi +f(^x)X1,||xi||(七)对可识别的低质量(硬)样本的权重,2)忽略不可识别的样本,以及3)较少关注简单的高质量样品。因此,我们的方法可以其中是特征幅度的归一化方差。我们通过批量统计对特征量进行归一化:和σ。为了从批量大小中放松μ和σ,我们在训练迭代中以指数移动平均值计算它们。 F(|^|X||)项目|^|X||对我们的生活毫无价值可以看作是一种硬样本挖掘,但不增加任何计算负担的硬样本选择。值得一提的是,f(|^|Xi||)在存储器中存储表示期间发生。因此,我们可以重写Eq。10如:特征,其具有小于阈值τ的v ex,或者是正的。σt=ασt+(1−α)σt−1,(8)2019 - 01- 2500:01:0000:0000:00|^|Xi||,xi)。3.5. 牵引器样品(十二)µt=αµt+(1−α)µt−1,(9)|X|为||Xi||−(µ),(10)||−(µ), (10)与[12]相比,QAFace的主要优点是能够从可识别的样本中识别不可识别的样本,并强调可识别的低质量样本6134W xiΣ××̸|| ||表2.性能(%)的比较,我们的方法与其他最近的算法。在LFW、CFP-FP、CPLFW、CARDB上报告1:1验证精度。方法会场校验精度TAR@FAR=1e−4LFWCFP-FPCPLFWCALFWAgeDBIJB-BIJB-CWang等人[第四十届]CVPR1899.8198.1292.2895.7698.1194.8096.37Deng等人[第十一届]CVPR1999.8398.2792.0895.4598.2894.2596.03Sun等人[38个]CVPR2099.7396.02---93.95Deng等人[9]第一章ECCV2099.8098.8098.3194.9496.28Wang等人[41个]AAAI2099.8098.2892.8397.9596.1093.695.2Huang等人[18个国家]CVPR2099.8098.3793.1396.2098.3294.896.1Kim等人[22日]ECCV2099.8598.6393.1796.2098.3894.9796.38Shi等人[35]第三十五届CVPR2099.7898.64----96.6Kim等人[21日]CVPR2099.8598.6393.1796.2098.2894.9396.26Chang等人[6]美国CVPR2099.8398.78----94.61Meng等人[28日]CVPR2199.8398.4692.8796.1598.1794.5195.97Deng等人[12个]CVPR2199.8399.1193.4596.1298.6095.5696.76QAFace99.8599.2194.4196.1197.9195.6797.20图6. p曲线不为当cos(θ)固定时,至30)。此外,原始图像分布(绿色)的平均值始终在23左右,这表明我们提出的方法可以有效地将低质量样本纳入训练中,而不会降低高质量样本的性能。另一个观察图。4(底部)是规格化幅度的必要性。不使用Eq。在特征幅度上,用于忽略不可识别样本的阈值随着训练的进行而改变。当量10省略了特征量分布的偏差。i、jCj=1WT xjeJ由训练阶段引起的紧张情绪因此,我们可以选择cos(θyi)在-1.0到1.0之间变化在注射过程中。为此,我们采用特征向量的大小作为输入样本可识别性的代理[28]。我们进行了一个实验,以证明特征幅度是如何受到可重构性的影响,以及我们的方法如何使用硬样本来减少低质量样本和高质量样本的表示之间的差距。我们随机选择训练数据的10K图像的子集,并将它们下采样到不同的水平(88和16 16)。然后,在每个时期结束时,我们保存从原始图像和下采样图像获得的表示的幅度,见图。4.从图中所示的结果。4(顶部)我们可以观察到,随着可重构能力的增加,表示的幅度也增加,即,绿色>蓝色>橙色。下采样的分布与原始实例的分布完全重叠是理想的场景,这意味着模型变得与质量无关。该模型逐步学习增加特征幅度的下限,以缩小原始样本和低质量样本之间的差距。在训练的早期阶段,特征幅度的全范围约为25(从5到30)。然后在最后阶段,范围缩小到15(从15固定τ,用于忽略不可识别的样本并强调硬样本。3.6. 角边缘梯度与三元组和对比损失不同,基于软最大值的损失不受显式简单/硬样本挖掘的影响[42,31]。在本节中,使用一个简单的玩具示例,我们展示了基于Softmax的损失通过其梯度隐含地受益于容易/困难样本挖掘。此外,我们详细说明了所提出的f(xxi)补充Softmax学习信号(梯度)的能力。考虑一个四身份分类。对于给定的样本x i,具有地面真值恒等式y i= 4,logit为cos(θ1)、cos(θ2)、cos(θ3)、cos(θ4)。 图7、我们把固定cos(θj),j=4而cos(θyi=4)的损失值从-1变为1。第一个观察图。图7(右)中,缩放参数s正在调整损失函数的灵敏度。随着缩放值的增加,损失函数(梯度)的斜率也会增加[46]。此外,s直接影响样本被识别为容易的点。简单的样品几乎不会经历变化,即,低斜率,而硬样品接收高梯度值,即,高边坡此外,在图中。7(左),我们证明这里的缺点是单声道,我6135Σ--×−||图7. p曲线=es(cos(θyi)),当y= 4和yiCj=1 es(cos(θj))icos(θyi)从-1变为1。图8.两个随机选择的受试者的样本到中心余弦相似性的图示高范数样本与类中心非常相似。低范数样本与Softmax中心的相似度较低。硬样品之间梯度的张力。换句话说,有些样本无法识别;然而,它们梯度等同于信息量大但硬的样本的梯度。因此,该模型试图过拟合不可识别的样本,因为这些实例上没有身份信息[35]。我们提出的方法试图通过忽略注射过程中无法识别的样品来补偿这种影响。它不进一步涉及不可识别的样本在注入过程中,并忽略它们使用所提出的特征加权范例。因此,我们的方法证明了分类器的方向,以容忍更多的变化对硬和信息样本,并发挥了补充作用,以Softmax为基础的学习信号。4. 实验4.1. 数据集我们使用Webface4M [49]作为我们的训练数据,其中包含大约20万个身份的400万个样本,表2。为了评估我们的方法,我们使用CFP-FP [33],CPLFW [47],CALFW [48],LFW [17],CARDB [29],IJB-[27][28][29][29][29]基于数据集评估协议,我们报告了CFP-FP、LFW、CPLFW、CALFW和CALDB数据集的1:1验证精度。 对于IJB-B[44] 和IJB-C [27],我们报告真实接受率(TAR)超过1e−4的错误接受率。4.2. 培训设置我们使用[10]来检测每个图像中的五个地标然后,按照[11]中的设置,将图像对齐并重新缩放到112112。我们采用ResNet [11]作为主干。该模型被训练了24个epoch,其中有Arcface损失。的图9.比较两种方法的成对相似性得分,IJB-C数据集来自VPL和QAFace。表3.消融术。指标与表2相同。∆t验证精确度TAR@FAR:1e−4LFWCFP-FPCPLFWIJB-BIJB-C099.7198.4092.0195.2696.450099.8098.8192.8495.4696.75100099.8599.2194.4195.6797.20150099.7899.0193.1295.4596.87200099.6998.3392.9595.1496.35优化器是SGD,学习率从0.1开始,在时期10、16、22处减少10倍。优化器权重衰减设置为0.0001,动量为0.9。在训练过程中,每个GPU上的小批量大小根据[16],图3中的γ为0.99。在计算方程中的μ和σ,α时,8和9,是0.99。给定一对图像,表示之间的余弦距离是推理过程中的度量。4.3. 消融研究4.3.1内存长度在[16]中,内存是表示的动态队列整个存储器的长度为M,对新样本进行排队会导致对最旧样本进行出队这里内存的长度等于类的数量因此,我们应该记住最后一次迭代,因为内存中的每个实例都被更新了。这样,我们就可以防止在注入中使用过时的表示例如,如果训练在迭代I上,并且内存中的特定实例在I上更新,如果,如果该特定内存实例注射时不能使用。结果表明,在早期时期,在特征空间的变化是激烈的;在此之后,它是微不足道的[12]。因此,我们在训练的第四个时期表3所示为对Al2O3的烧蚀实验。在这些实验中,我们将τ固定为2。我们以500次迭代的间隔来增加Wavelet。如表3所示,性能从Δt= 0到Δt= 1000不断提高,之后开始下降。6136ˆ||||表4.τ的消融。指标与表2相同τ验证精确度TAR@FAR:1e-5LFWCFP-FPCPLFWIJB-BIJB-C099.8699.2393.2095.0396.12199.. 8399.1193.1495.4196.91299.8599.2194.4195.6797.20399.8399.0293.0295.5196.84498.7698.4592.3295.0296.20表5.消融增强概率,TAR@FAR= 1 e-4。概率裁剪下采样IJB-BIJB-C0.0--95.3496.600.1-✓95.5696.890.1升-95.4196.650.1升✓95.5796.950.2-✓95.6396.910.2升-95.4596.670.2升✓95.6797.204.3.2阈值的影响(τ)我们将内存长度固定为1000次迭代。然后,我们在等式中研究阈值(τ)的不同值。10.如表4所示,IJB-B和IJB-C的性能随着τ从零到零的变化而不断增加。2.在τ= 0时,只有x大于零的样品参与进样。因此,当输入来自IJB-B和IJB-C等包含低质量样本的数据集时,模型性能会降低[35]。另一方面,CFP、CPLFW和LFW等干净数据集的结果相当好[35]。4.4. 增强的影响对于数据增强,我们使用随机裁剪和下采样[19,45]。动态数据增强提供更多样化的训练数据。然而,如图所示。2、增加了不可识别样本的出现。我们对我们的方法进行实验,有和没有数据增强的存在。因此,我们可以证明我们的方法可以有效地忽略不可识别的样本,同时受益于更多的训练实例,见图。5.如表5所示,该模型通过增加增强的概率来提高IJB-B和IJB-C数据集的性能。由于这些数据集包含低质量的样本,因此下采样比随机裁剪带来更多的性能提升。4.5. 与最新技术水平的表2示出了所提出的方法为了更好地澄清,我们分两部分解释我们的观察结果。对于LFW、CPLFW、CALFW、CFP-FP和CARDB的结果,必须提到的是,QAFace是建立在更加重视低质量样本和使这些样本的表示更接近于高质量样本的特征。因此,这些数据集中的性能增益是微不足道的,因为它们包含几乎高质量的样本[35]。虽然性能在大多数数据集中是饱和的,但我们的方法努力提高CFP-FP和CPLFW数据集的1:1验证精度。IJB-B和IJB-C数据集更具挑战性,并且具有不同质量的图像/帧。IJB-B和IJB-C数据集上的结果表明,我们的方法在更一般的人脸识别中具有优越性。由于这些数据集包含低质量和高质量图像,因此这些数据集中的性能增益更加明显。在IJB-B中,与VPL相比,QAFace提高了TAR,FAR=1e−4。5. 结论这项工作论证了将样本相似性集成到Softmax框架的重要性。此外,我们还发现,现有的基于角距的损失函数可能会被数据集中无法识别的样本所分散。受样本间比较框架中的硬样本挖掘思想的启发,我们提出了一种加权方案,以忽略不可识别的样本,并在注入过程中强调可识别的低质量样本。我们通过提高IJB-C数据集中阳性样本之间的相似性得分,经验性地显示了忽略不可识别样本的效果。并对所提出的加权函数进行了分析。我们提出的方法是基于一个简单的想法,使用规范的功能作为代理的人脸图像的可识别性。此外,我们经验性地显示了人脸图像的质量对特征量我们证明了人脸图像的质量与其再现性的大小成正比我们的方法可以在七个评估基准中的五个中成功地超越所有竞争对手,包括IJB-B和IJB-C数据集。引用[1] PooryaAghdaie,BaariaChaudhary,SobhanSoleymani,Jeremy Dawson,and Nasser M Nasrabadi.通过结构化组稀疏性增强形态检测在IEEE/CVF计算机视觉应用冬季会议论文集,第311-320页[2] Xiang An,Jikang Deng,Jia Guo,Ziyong Feng,XuhanZhu,Jing Yang,and Tongliang Liu.一石二鸟:基于部分模糊聚类的高效鲁棒人脸识别神经网络训练。在IEEE/CVF计算机视觉和模式识别会议论文集,第4042-4051页[3] Ognjen Arandjelovic , Gregory Shakhnarovich , JohnFisher,Roberto Cipolla,and Trevor Darrell.利用流形密度发散的图像集进行人脸识别。2005年6137IEEE计算机协会计算机视觉和模式识别会议IEEE,2005年。[4] Fadi Boutros , Naser Damer , Jan Niklas Kolf , KiranRaja,FlorianKirchbuchner,RaghavendraRamachandra ,Arjan Kuijper, Pengcheng Fang, ChaoZhang,Fei Wang,et al.Mfr 2021:蒙面人脸识别竞赛。2021年IEEE国际生物识别联合会议(IJCB),第1-10页。IEEE,2021。[5] 哈坎·切维卡普和比尔·崔格斯基于图像集的人脸识别。2010年IEEE计算机协会计算机视觉和模式识别会议,第2567- 2573页。IEEE,2010。[6] 常杰,蓝中浩,程昌茂,魏以辰。人脸识别中的数据不确定性学习。在IEEE/CVF计算机视觉和模式识别会议的论文集,第5710-5719页[7] 陈凯,太和一,齐绿。Lightqnet:轻量级深度人脸质量评 估 , 用 于 风 险 控 制 的 人 脸 识 别 。 IEEE SignalProcessing Letters,28:1878[8] Sumit Chopra Raia Hadsell和Yann LeCun。 学习相似性度量有区别地,与应用到人脸验证。在2005年IEEE计算机协会计算机视觉和模式识别会议(CVPRIEEE,2005年。[9] Jiankang Deng , Jia Guo , Tongliang Liu , MingmingGong,and Stefanos Zafeiriou.副中心弧面:通过大规模噪声网络人脸增强人脸识别。欧洲计算机视觉会议,第741-757页。Springer,2020年。[10] Jia Guo , Evangelos Ververas , Irene Kot- sia , andStefanos Zafeiriou. Retinaface:在野外进行单次拍摄的多层次面部定位。 在IEEE/CVF计算机视觉和模式识别会议论文集,第5203-5212页[11] 邓健康,贾国,薛念南,Stefanos Zafeiriou。Arcface:用于深度人脸识别的附加角度余量损失。在IEEE/CVF计算机视觉和模式识别会议论文集,第4690-4699页[12] Jiankang Deng , Jia Guo , Jing Yang , AlexandrosLattas,and Stefanos Zafeiriou.用于深度人脸识别的变分原型学习。在IEEE/CVF计算机视觉和模式识别会议论文集,第11906-11915页[13] Hang Du , Hailin Shi , Yuchi Liu , Jun Wang , ZhenLei,Dan Zeng,and Tao Mei.浅面学习的半连体训练。欧洲计算机视觉会议,第36-53页。Springer,2020年。[14] 段跃奇,陆继文,周杰。统一面:学习深度等分布表示用于人脸识别。在IEEE/CVF计算机视觉和模式识别会议论文集,第3415-3424页[15] AtiyeSadatHashemi , AndreasBar? r, SaeedMozaff ari ,andTim Fingscheidt.改进生成的单向对抗扰动的可转移性,在Deep Neural Networks and Data for Auto- matedDriving,第171-196页。施普林格,占,2022年。[16] Kaiming He,Haoqi Fan,Yuxin Wu,Saining Xie,andRoss Girshick.用于无监督视觉表示学习的动量对比。在IEEE/CVF计算机视觉和模式识别会议论文集,第9729-9738页[17] Gary B Huang,Marwan Mattar,Tamara Berg,and EricLearned-Miller.在野外贴上标签的脸:研究无约束环境中人脸识别的数据库。在“现实生活”图像中的面孔研讨会:检测、对准和识别,2008年。[18] Yuge Huang,Yuhan Wang,Ying Tai,Xiaoming Liu,Pengcheng Shen , Shaoxin Li , Jilin Li , and FeiyueHuang.课程内容:深度人脸识别的自适应课程学习损失。在IEEE/CVF计算机视觉和模式识别会议论文集,第5901-5910页[19] Amol S Joshi,Ali Dabouei,Jeremy Dawson和Nasser MNasrabadi。Fdebur-gan:基于生成对抗网络的指纹图像去 模 糊 。 2021 年 IEEE 国 际 生 物 识 别 联 合 会 议(IJCB),第1-8页。IEEE,2021。[20] Hossein Kashiani 、 Shoaib Meraj Sami 、 Sobhan Soley-mani和Nasser M Nasrabadi。鲁棒集成形态检测与域泛化。arXiv预印本arXiv:2209.08130,2022。[21] Yonghyun Kim,Wonpyo Park,Myung-Cheol Roh,andJongju Shin. Groupface:学习潜在群体并构建用于人脸识别的基于群体的表示。在IEEE/CVF计算机视觉和模式识别会议论文集,第5621-5630页[22] 金永铉朴元杓和申宗柱宽脸:一次看着成千上万的人进行面部识别。欧洲计算机视觉会议,第536-552页。Springer,2020年。[23] Hao Liu,Xiangyu Zhu,Zhen Lei,and Stan Z Li.自适应-面:人脸识别的自适应间隔和采样。在IEEE/CV
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- SSM Java项目:StudentInfo 数据管理与可视化分析
- pyedgar:Python库简化EDGAR数据交互与文档下载
- Node.js环境下wfdb文件解码与实时数据处理
- phpcms v2.2企业级网站管理系统发布
- 美团饿了么优惠券推广工具-uniapp源码
- 基于红外传感器的会议室实时占用率测量系统
- DenseNet-201预训练模型:图像分类的深度学习工具箱
- Java实现和弦移调工具:Transposer-java
- phpMyFAQ 2.5.1 Beta多国语言版:技术项目源码共享平台
- Python自动化源码实现便捷自动下单功能
- Android天气预报应用:查看多城市详细天气信息
- PHPTML类:简化HTML页面创建的PHP开源工具
- Biovec在蛋白质分析中的应用:预测、结构和可视化
- EfficientNet-b0深度学习工具箱模型在MATLAB中的应用
- 2024年河北省技能大赛数字化设计开发样题解析
- 笔记本USB加湿器:便携式设计解决方案
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功