没有合适的资源?快使用搜索试试~ 我知道了~
沙特国王大学学报结合几何特征点和低层视觉特征M. Vasanthia,K.西塔拉曼湾a沙特阿拉伯阿布哈哈立德国王大学计算机科学系b部Annamalai University,Annamalai Nagar 608 002,Tamil Nadu,India阿提奇莱因福奥文章历史记录:收到2020年2020年11月4日修订2020年11月14日接受2020年11月23日网上发售保留字:典型相关几何特征点低级视觉特征置信限自相关A B S T R A C T提出了一种基于多元相关分析的生物特征驱动的人脸图像识别方法,该方法提取几何特征点和底层视觉特征。从面部图像的所选突出区域中局部提取低级视觉特征,例如颜色和纹理。使用主动形状模型(ASM)捕获的几何特征。从YCbCr颜色模型中提取颜色特征,并采用自相关方法提取纹理特征。所提取的特征被形成为特征张量矩阵。使用典型相关方法将关键面部图像的特征矩阵与存储在特征向量数据库中的目标面部图像的特征矩阵进行比较。测试关键特征矩阵和目标特征矩阵之间的相关性,无论其是否高度显著如果它是显著相关的,则推断关键和目标面部图像是相同的;否则,推断它们是不同的。基准面部图像数据集,GT,LFW,和Pointing'04数据集,考虑用于实验;除了数据集,面部图像数据库已与我们感兴趣的名人一起所提出的方法导致平均预-GT、LFW、Pointing'04和我们的数据集的精确度评分(mP@a)分别为95.27%、94.20%、96.19%和96.05分别此外,计算出GT、LFW、Pointing'04和我们的数据集的F分数分别为96.78%、95.15%、97.08%和96.96%所提出的方法得到的结果是与现有的方法。©2020作者由爱思唯尔公司出版代表沙特国王大学这是一个开放的访问CC BY-NC-ND许可证下的文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。1. 介绍人脸识别是生物识别系统中最值得关注的方法之一它被部署在许多应用领域,如人机交互(Yang et al.,2002)、面部跟踪、面部表情识别、疲劳检测、行人和上身检测(Barbu,2014; Duffner和Odobez,2014)、视觉监视、手势识别(Chaudhary等人, 2011年),机器人,视频和图像索引,驾驶监控系统,以及多媒体和法医应用。在本场景*通讯作者。电子邮件地址:wmsami@kku.edu.sa(M.Vasanthi),kseethaddeau@gmail.com(K.Seetharaman)。沙特国王大学负责同行审查制作和主办:Elsevier在安全性提高的世界中,人脸识别问题已经成为一种潜在的生物识别方法,特别是在新冠肺炎大流行期间和后期。新型冠状病毒疫情爆发后,大部分使用指纹等接触式生物识别系统的组织已避免将其用于日常考勤系统。因此,由于Covid-19,已实施接触式生物识别系统的全球组织已转向非接触式面部认证平台。Carlaw(2020)进一步指出,人脸和虹膜识别等非接触式技术现在正被迫适应新出现的威胁。因此,在未来,公众和组织对非接触式生物识别系统的需求将激增。因此,本文认为,它将反映在生物识别技术为导向的系统所涉及的研究机构。此外,它将促使生物计量研究界更多地关注非接触式生物计量系统,如面部、虹膜、步态和语音识别(Carlaw,2020; News,2020)。广义上,人脸识别方法可以分为几何驱动的方法或基于模型的方法(Rezq和El-sayed,https://doi.org/10.1016/j.jksuci.2020.11.0281319-1578/©2020作者。由爱思唯尔公司出版代表沙特国王大学这是一个在CC BY-NC-ND许可证下的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。可在ScienceDirect上获得目录列表沙特国王大学学报杂志首页:www.sciencedirect.comM. Vasanthi和K. 西塔拉曼沙特国王大学学报41102008; Kaur 等 人 , 2015; Ouarda 等 人 , 2014; Yan 等 人 , 2014年;Ghimire和Lee,2013年; Huang和Peng,2013年; Wolf,2009年),以及基于外观或基于统计方法(Wolf,2009年; Liu等人,2019;Muqeet和Holambe,2019;Wu等人,2019年)逼近。基于面部形状线索(如嘴的宽度、两个眼睛之间的内部和外部距离、前额到鼻子和下巴之间的高度、下巴和下巴之间的距离等)开发的几何驱动方法(Kaur等人, 2015年)。基于外观的方法是基于低级特征开发的,如颜色、纹理和空间方向(Muqeet和Holambe,2019;Wu等人,2019年; Mahmoodi和Sayedi,2015年)。文献显示,仅几何线索不会产生良好的结果(Mahmoodi和Sayedi,2015)。因此,随后的工作结合了几何特征和低级别特征,并报告说,它比单独的几何特征或低级别特征更好。前面介绍的方法是基于单个特征或任务开发的,而新技术结合了不同的特征,即,运动、颜色、形状、边缘,以及更高级别的神经网络、Adaboost、SVM等,来克服这些挑战。从文献中可以观察到,几乎所有最近的工作都是用神经网 络 的 概 念 开 发 的 , 即 卷 积 神 经 网 络 ( CNN ) , 深 度 CNN(DCNN)和深度神经网络(DNN)。第三部分阐述了近年来的相关研究成果。2. 相关作品如上所述,许多研究人员已经开发了许多使用几何线索的人脸识别方法。在(Starovoitov和Sama,1999)中,提取了面部几何特征,诸如瞳孔、鼻孔、前额的左右点之间的距离以及其他面部线索;采用欧几里得距离来比较这些特征。Ghimire和Lee(2013)已经提出了一种基于通过使用具有动态时间规整相似性距离的多类AdaBoost提取的显著面部几何特征的方法。Maheshkar等人(2012)已经报道了现有的基于特征或基于局部特征的方法依赖于个体面部特征的表征(即,眼睛、鼻子和嘴巴等)以及它们的几何关系。他们提出了一种方案,该方案自动计算特征集,如眼睛,鼻子和嘴的面积测量,水平,垂直和对角方向的边缘信息,以及使用整个人脸信息的多尺度信息。Lei等人(2009)提出了一种用于面部表情检测的系统,该系统基于主动形状模型(ASM)提取面部几何特征点,并计算面部图像的重心坐标与注释基准点坐标之间的欧几里得距离采用多类SVM分类器对人脸表情进行识别. Zangeneh和Moradi(2018)提出了一种方法,该方法是基于鼻子,眉毛和嘴巴的微分几何特征点开发的。他们部署了一个SVM分类器来识别人脸图像。Do和Le(2008)提出了一种方法,该方法提取几何特征,并用(i)主成分分析(PCA)的几何特征和(ii)独立成分分析(ICA)的几何特征的组合形成两组,并比较两组的结果。他们报告说,后者比前者产生更好的结果Bindemann和Burton(2009)提出了一种基于颜色特征,强调颜色在面部识别中起着重要作用Liu和Liu(2008)提出了一种基于混合颜色的频率特征方法,该方法建立了一个称为RIQ的混合颜色空间,并将其转换为频率并从频域的图像的实部和虚部以及幅度中提取互补特征。通过在特征级连接来融合互补特征。Liu和Liu(2010)介绍了一种方法,该方法制定了称为RCrQ的混合颜色空间。该算法从R分量图像中提取基于块的Gabor特征,从Cr分量图像中提取多分辨率LBP特征,从Q分量图像中提取离散余弦变换(DCT)多人脸编码特征。最后,使用三分量(r,Cr和Q)图像生成相似性矩阵,并使用加权求和规则在决策级进行融合。沙里法拉等人(2017)主要检测Haar类纹理特征,然后基于扩展的局部二进制模式(LBP)和Adaboost算法的支持向量机验证该过程。Zhang等人(2010)提出了一种具有局部导数模式(LDP)的方案。LDP模板对给定局部区域中像素的各种不同Mahmoodi和Sayedi(2015)报告说,下颌形状、前额长度、嘴唇和眼睛等几何特征可能因人而异,这导致难以提出基于模板或面部形状的方法。此外,他们报告说,现有的方法并没有产生令人满意的结果,因为它们是基于单一的功能或任务开发的。为了克服这个问题,他们提取不同的特征,如颜色,纹理和形状,并采用核概率映射函数。Muqeet和Holambe(2019)提出了一种新的面部特征提取方法,该方法利用方向小波变换(DIWT)和LBP。此外,他们还实现了四叉树分割方法,这有助于自适应方向选择以获得DIWT子带。该方法从最上层的DIWT子带中提取LBP直方图特征,得到局部描述性特征集。Jiang等人(2013)报告说,整合来自多个视觉线索的信息-纹理,立体视差和图像运动-可以提高感知任务的性能,即,目标检测他们利用生物启发的纹理和立体视差信息进行多视图面部检测任务,这导致改进的检测性能并且还使计算复杂度最小化。Pan等人(2013)已经报告了异构特征描述符丰富了Adaboost学习算法的特征类型的多样性。他们还提出了一种Hetero-PSO-Adaboost-SVM人脸检测器,它用一组异构和互补的特征描述符来表示人脸模式,包括广义Haar-like(GH)描述符,多块局部二进制模式(MB-LBP)描述符和加速鲁棒特征(SURF)描述符。粒子群优化(PSO)算法被纳 入 到原 来 的Adaboost框 架 ,有 效 地 选 择功 能 。 Geetika 和 Indu(2018)认为纹理和边缘信息在面部图像表示中起着独特的作用,他们提出了一种提取LBP正交组合(OC-LBP)和方向直方图(HOG)特征并归一化然后融合的框架。接下来,基于基于直方图的卡方、平方弦和扩展堪培拉度量以及具有归一化卡方核的SVM来实现分类。Moeini等人(2017)介绍了一种识别相似人脸的方法,其中人脸的深度是不变的,类间相似性高于类内变化。 为了解决这个问题,他们提取了深度和纹理特征,并部署了三种不同的方法,例如稀疏表示,协作表示以及它们的组合。近年来,卷积神经网络(CNN)和深度CNN(DCNN)由于其结果的准确性和遵循解决非线性问题的严格规则的灵活性而引起了研究界的注意。 许多研究人员M. Vasanthi和K. 西塔拉曼沙特国王大学学报4111×;X.Σ.Σ.20万美元Lk;l.Σk;lk;lk;lk;lk;l.- 是的 Σ采用神经网络解决人脸识别问题(Sun例如,2013; Taigman等人,2014; Schroff等人, 2015; Wang等人,2017; Wen等人,2019年; Wu等人,2019年)的报告。Wu et al.(2019)报告说,大多数CNN模型对各种面部图像的不同类型的局部区域应用相同的操作,如卷积或池化,并将特征聚合在通用的滑动窗口配置中,并将所有局部特征视为对面部识别过程同样有效。在这种方法中,由于忽略了区域方面的区别,不仅每个局部特征是次优的,而且整体面部表示也是次优的。图像的变换域SVDD的显著特点是利用核函数将实际数据转换到一个特征空间,并检测高维数据的全局离群点所识别的噪声像素由图像的正常(异常除外)像素的中值代替去噪技术在等式中表示。(1),这丰富了所提出的人脸识别方法,即使图像受到不同噪声的深刻影响为了识别图像中的异常像素,给定的输入图像被划分为大小的滑动窗口,3 3图。 二、语义不一致。Goswami等人(2019)报告说,大多数深度神经网络驱动的模型是一个黑盒子kfk;l-Ck;lk6r2ð1Þ文体的方法,因为公式化的功能,这是在许多层内学习,与数学概念是不是一个方便的任务。随着这一问题的认识,许多研究人员开发了一些技术,这些技术利用了深度学习算法的缺点,质疑它们的鲁棒性和奇异性。此外,从文献中观察到,尽管深度神经网络模型具有学习能力和高表达能力,但它们需要高计算成本来训练数据集以学习特征。文献表明,单独的面部图像的几何特征点不给一个好的结果,以及低层次的视觉特征-颜色,纹理和空间信息-单独也不提供令人满意的因此,本文认为,将几何特征与底层视觉特征相结合,可以取得较好的效果这促使我们开发了一个人脸识别系统,基于Sali- ent几何点和低级别的功能相结合,并认为它可以提供比现有的方法更好的结果。拟议方法该方法以彩色人脸图像为输入,采用Hetero-PSO-Adaboost-SVM人脸检测技术检测人脸区域,即感兴趣区域(ROI)。执行面部区域的预处理,基于所讨论其 中 , ||. || istheEuclideannorm;Ck;listhemeanintensityvalue ofthe pixels in the window, which is computed using the expression inEq. (二)、上述概念在图1中以图解方式说明。1.一、门恩Ck;l¼kuhfk;l2第1页ku表示拉格朗日乘数;hfk;l是像素强度值的矢量形式;fk;l是要分类的像素的强度值,无论其是否被噪声化。为了对像素fk;l进行分类,计算fk;l与Ck;l之间的距离。如果它小于或等于半径r,也就是说,它满足方程中的条件(1),则fk;l被接受为正常像素(在圆内);否则,它被识别为异常(在圆外)。在统计术语方面,Ck;l表示窗口中像素的平均值(中心矩);r(圆的半径)表示窗口中像素的标准偏差在秩序到导出的功能在当量(1)、让fR n;i; k1; 2; 3是窗口中的一组目标像素。其中,函数m不是r。fnornorand mne g.f个字符代表第3.1小节。预处理后,通过部署ASM模型提取几何特征点此外,提取纹理像素的隶属度,fk;l,分别朝向正常类和负类。函数fnor和fneg包含k;l k;l特征从Y(灰度)子模型使用自相关方法和Cb和Cr颜色子模型的颜色特征。提取的几何特征点和低层次的视觉特征被组合成一个单一的特征向量。将特征向量与目标面部图像的特征向量进行比较,正常像素组和异常像素组。软SVDD的求解可以通过求解以下优化问题来实现。minG¼r2x1Pmno r.fk;lnix2mneg.gk;lnj9>>特征向量数据库,基于多元Canonical相关性在各种显著水平(a)下测试输入关键特征向量与目标特征向量之间的相关系数,s:t:kfk;l -Ck;lk6r2ni;fk;l 2Snor>=ð3Þ无论是否显著相关,使用Chi-图像和目标面部图像被识别为相同kgk;l-Ck;lk6rnj;gk;l2S阴性>平方统计 如果它是高度相关的,那么关键的面部niP0;njP0;>;或相似;否则,它们被视为不同。关键面部护理图像表示输入面部图像,目标面部图像表示匹配的输出面部图像。图 1概述了所提出的方法的总体功能。3. 拟议方法窗口和误差;ni和nj定义为错误.项m nor f norni和m neg f negnj可以被认为是具有不同加权因子的误差的度量应注意,较小的m或 f或f的值可以减少方程中的参数ni(3),使得对应的像素fnor变为3.1. 预处理在捕获或操作图像以进行进一步分析时,有许多可能性在图像中加入不同种类的噪声。因此,所提出的方法采用称为软支持向量数据描述(Soft-SVVD)的预处理技术(Liu等人,2014),以去除或减轻图像中的噪声(异常)的影响。SVDD的主要目标是识别特征空间中的噪声像素;特征空间意味着不太重要。通过部署以下拉格朗日乘子定理和Karush-Kuhn-Tucker互补性(Vapnik,1998)的条件来构造正常和异常像素的判定边界r,超平面的。定理:在Eq中表示的问题的解决方案。(3)可以通过优化方程中的问题(四)、2其中,x1和x2控制像素之间的权衡,M. Vasanthi和K. 西塔拉曼沙特国王大学学报4112P1/1ki¼1>>的;DOW,R可以如下测量。精确检测面部区域提取几何特征将这两个特征组合并公式化为单个特征向量特 征 向量库没相关性是否高度显著?人脸图像数据库是已识别的面部图像端获取下一个特征向量使用典型相关与特征向量库中的特征向量进行匹配k;l开始输入关键面部图像预处理关键图像提取特征Fig. 1. 拟议方法的概要。maxmPnk K.我也是。我不知道。fnormPnmPnk k K.我也是。fnorneg.fneg密码9>最小球面作为线性组合x1,也就是说,ik; l ;k;l-i j我k;l;k;l>CP门1/1联系我们古湖=k;l<$u<$1k;ls:t:0 6 ki6 xp; i ¼ 1; 2;.. . ; mn;门恩让我们假设fu>是一种像素的模式2M. Vasanthi和K. 西塔拉曼沙特国王大学学报4113k;;lk;;l我 J我 J我k;l我k;l2通过解决上述方程中的对偶问题。(4)可以获得k;l;k;l;ð4Þ其中k;kP0是Lagrange乘子,k;kP0;r2½ kf u -Cklk1/4。fu-Ckl·你知道吗?fu-Cklnxp¼x1m无r.fno r;i¼1;2;.. . ;mo和nxp¼x2m阴性f阴性。-是的Σði¼mþ1;mþ2;... ;mn g.r2¼ fu. C kl2-2 f u·你知道吗?C kl5拉格朗日乘数ki16i6mn,它给出了使用Mercer(6)、(5)可以写在Eq。(七)、提取低级视觉特征k;;lM. Vasanthi和K. 西塔拉曼沙特国王大学学报4114¼J-JXXk;lk;lk;lk;lk;lk;lk;lk;lk;l;;k;l;J-J图二. 用于识别噪声像素的图形表示。则推断像素fk;l是正常的。否则,它被视为异常。关于拉格朗日乘数和Karush-Kuhn- Tucker互补性的更多细节,读者可以参考(Liu et al.,2014;Vapnik,1998)。本文采用Hetero-PSO-Adaboost-SVM人脸检测方法(Pan et al.,2013),用于在去噪之后从图4(a)中给出的输入图像中检测精确的面部区域。检测到的面部区域已在图1B中描绘。 4(b).3.2. 特征提取方法3.2.1. 几何特征点选取为了提取面部图像的显著几何点,为了计算简单性,将给定的面部图像转换为YCbCr颜色模型,其中Y表示亮度,即,脸部图像的灰度强度值;Cb和Cr分别表示蓝色差和红色差色度面部线索,如十个形态特征和低层次的视觉特征,即。从每个面部图像中提取颜色和纹理面部基准线索包括颧骨宽度与下颌宽度的比率(CWJWR)、颧骨宽度 与 上 面 部 高 度 的比 率 ( CWUFHR ) 、 多边形的周 长 与 面 积(PAR)、眼睛的平均大小(ASoE)、面部高度与下面部高度的比率(FHLFHR)、面部宽度与下面部高度的比率(FWLFHR)、眉毛高度的平均值(MEH)、嘴的宽度、鼻子末端的宽度和面部的整个区域(RoF);颜色和纹理特征。从灰度图像中提取几何从Y分量。在检测面部区域之后,主动形状模型(ASM)(Iqtait等人,2018),它标记了对面部识别非常有用的面部基准点。基于图3中所示的面部基准点,主要识别十个显著的几何学线索,这在下面描述。CWJWR(颧骨宽度与颌宽度的比率)功能:表示颧骨宽度与颌宽度的比率,其在等式(1)中定义。(十)、CWJWRjP15-P 1jP12 -P4jð10Þ图3.第三章。面部几何基准点两点之间的距离以英寸(“)为单位.fu2.4。去你的。fu2.5D。f un;.我的天。f u;fu6其中:P12P4代表的颧骨宽度,P15P1表示钳口宽度。CWUFHR(颧骨宽度与上面部高度之比):表示颧骨宽度与上面部高度之比,如下所示。r2½K。去你的;去你的。Ckl;Ckl=2K。f u;Ckl7通过应用Karush-Kuhn-Tucker(Vapnik,1998),可以导出从窗口中像素的决策边界到像素的平均强度值的距离r二、 乌乌木门. 也不否定门恩.内格 乌什R 千分之一fk;l;f k;lþ1/1第1页LiLjK fk;l;fk;l-K1/1Li fk;l;fk;lð8Þ为了识别窗口中的像素是否有噪声,计算从窗口中像素的决策边界到窗口中像素的平均值的距离就如果距离小于或等于r,即,图四、从输入的人脸图像中识别显著区域(a):输入图像;kfk;l-Ck;lk6r2;(b):通过Hetero-PSO-Adaboost-SVM技术检测的面部区域;(c):通过所提出的方法识别的突出皮肤区域。X2M. Vasanthi和K. 西塔拉曼沙特国王大学学报4115¼j-j-jft1a2n120¼2¼J-JP¼×fi-fni¼1 fi-ffikfnCWUFHRjP12-P 4jjN2 -P67 jð11Þ图4(b).在进行严格的实验后,将显著性水平a其中,P12P4表示颧骨宽度; N2 P67表示上面部高度.PAR(多边形的周长与面积):定义CL¼.-f-tr--=;-pn;R-=;-pn多边形的周长与面积之比,计算公式如下:PAR周长:P1;P4; P8; P12; P15; P1区域:P1; P4; P8; P12; P15; P1ð12Þ其中,a表示所需的显著性水平;n表示面部图像区域的皮肤表面中的像素数量;t1-a=2;n-1是具有自由度n- 1的t分布的100个-f和r代表平均值和标准值-ASoE(眼睛的平均尺寸表示双眼相对于水平距离的平均尺寸,其由下式导出:ASoE 2013年1月1日P33-P 28-P 35-P 30FHLFHR(面部高度与下面部高度比):皮肤表面区域中的像素的标准偏差,这将在本节的其余部分中进行描述颜色功能:色度,如Cb和Cr,从YCbCr模型中考虑。对于Cb和Cr子模型,分别计算图1所示突出皮肤表面的变异系数(CoV)。 4(c),根据表达式由方程式(21). 部署CoV以比较像素的分散FHLFHRjP67-P 8jjN2-P 8jð14Þ感兴趣区域(RoI)中的强度值(Seetharaman,2012)。R其中,LFH是下面部高度,这意味着图3中所示的颧骨和下颌最低点之间的距离; N2P8表示前额最高点(N2)和下巴最低点(P8)之间的距离。FWLFHR(面宽与下表面高度比):表示CoV¼-f×100μ21μm其中,-f和r分别表示窗口的像素强度值的平均值和标准偏差。-1X面宽与下表面高度的比率,其定义为P15 -P1jf/n1/1fi22FWLFHR¼jP67-P 8jð15Þvut1X n。ffiffiffiffiffiffiffiffiffiffiffiffi-ffiffiΣffiffiffi2ffiffin 1/1MEH1[1][2][3][4][5][6][7][8][10][11][12][13][14][15][16][17][18][19][1ð16Þ纹理特征:本节部署了自相关系数(ACC),它表征了[001pdf1st-31files][001pdf1st-31files][001 pdf 1st-31files]WoM(嘴的宽度),其使用表达式Eq. (十七)、WoM¼ P4M 2-M 4M 1-17毫米WoN(鼻子的计算如下。面部皮肤表面,用符号c表示(Seetharaman,2015年)。ACC是根据图4(c)中所示的突出皮肤表面区域,基于等式(1)中表达的函数计算的。(24页)。P .-不-ΣWoN¼P3N7-P3N 5Kð18Þi¼1.fi--f2RWM_WN:WoM与WoN的比值计算如下。Eq中的分子(24)表示pix的协方差RWM WNWOM赢得ð19Þ窗口中的元素,而分母表示方差;-f表示该区域中像素的平均值3.2.2. 低层视觉特征提取为了提取面部皮肤的低级视觉特征,例如颜色和纹理,必须去除眉毛、胡子和前额上的头发,因为它们几乎与所有人相同,而面部皮肤可能因人而异。因此,将眉毛、胡子和前额上的头发包括在内可能会误导人脸检测。因此,在提取视觉特征之前,必须将它们从人脸图像中去除。为了去除上述属性,在等式中表示的置信限(CL)。(20)被部署到图4(b)中的图像。落在该界限内的面部皮肤图像数据被视为正常皮肤;否则,它们被视为异常,即,眉毛、鼻毛和前额上的头发。在去除对于低级视觉特征提取不必要的不想要的数据之后,从图4(c)中所示的面部图像的突出皮肤表面选择大小为24 24的十个窗口。从这10个窗口中提取低层视觉特征十个窗口通过采用等式中的CL来选择。(20)在10%的显著性水平(即,a= 0.1)到中所示的面部图像3.2.3. 特征数据库公式化所提取的特征被公式化为特征张量矩阵,其具有十行和四列;每一列表示面部图像的属性,并且每一行表示面部图像。特征矩阵形成如下。计算每个属性的中位数(med)值,并计算图中所示属性的中位数值的平均值(Avg)。 五、平均值被视为特征向量数据库的索引 每个平均值表示面部图像的特征向量,其在图1中示出。 五、通过对每个特征向量应用索引值,大大减少了搜索和匹配时间。在特征向量和对应的面部图像之间以一一对应的方式建立链接。上述特征以三维空间的张量矩阵的形式存储,用FVM(I,M,N)表示;其中I表示属性中值的平均值;M表示表示张量矩阵的行索引,表示每个人脸的特征;N是表示属性的列索引特征nMEH(眉毛高度的平均值):表示眼睛的平均高度,其通过等式(1)中给出的表达式计算(十六)、r¼ð23ÞC ¼ð24ÞM. Vasanthi和K. 西塔拉曼沙特国王大学学报4116m;n!hið Þ ðÞ¼ ðÞ¼x;IkK1K2Kny;It不1不2不n图五、特征向量数据库的结构GFP:几何特征点; Cb:蓝色色度; Cr:红色色度; T:纹理; GFAT(.):几何特征属性; CbFAT(.):蓝色色度特征属性; CrFAT(.):红色色度特征属性; TFAT(.):纹理特征属性。平均值和中位数分别代表平均值和中位数(有关本图例中颜色的解释,请参阅本文的网络版本张量矩阵被聚成各种齐次群功能的可以被表示作为Fk~Nnk;Ck和使用模糊c均值算法。tm;n ~N<$nt;Ct<$,平均向量n<$:<$和协方差矩阵,C:。3.3. 人脸识别方法为了匹配和识别目标人脸图像,典型相关分析(CCA)是一种通用的多变量方法,因为多元回归,Dis-criminant分析和多元方差分析是CCA的特殊情况。因此,本文认为,CCA产生更好的结果比上述技术。使用CCA的另一个优点是不存在特征属性必须遵循正态性条件的限制。正态性意味着特征向量数据的性质(特征空间中的数据遵循正态分布)。CCA比上述统计方法更好,因为它防止了产生多重共线性。在上述统计方法中,3.3.2. 典型相关映射函数上述特征张量矩阵被认为是多变量随机向量。所提取的特征矩阵被映射为:的我知 道了。让Ik表示I k1;I k2;. ;I知道,并且I t表示It1;I t2;. ;I tn.它可以定义在一个新的坐标,x,通过选择一个方向,我k,和x是投影到方向,即x! hI k; xi. 类似地,y被投影到方向It上,也就是,y It;y。为了映射关键和目标特征矩阵并公式化线性函数,关键和目标面部图像的特征矩阵分别映射到x和y坐标上,如下所述。F½hI;xi;hI;xi;::;hI;xi]=25mm指示器特征属性(特征分量)可以是线性的依赖;它可能会影响结果。但是,CCA避免了预测特征属性之间的线性相关性问题。因此,从这个意义上说,CCA比上述方法更好。F;yi;hI;yi;::;hI;yi]26关键面部图像的特征向量xi的线性组合被定义为:统计技术。 最重要的是,共同国家评估的结果是一个单一的-不考虑特征维度;它很方便,1x1 x2x1x12x2我... n x nð27Þ站的关键和目标人脸图像的相似性图。 6-8分。3.3.1. 匹配关键和目标人脸图像上述特征张量矩阵被视为可测量的特征空间。让我们假设特征向量空间被假设为一个折叠的高斯随机场(Carbó-Dorca和Besalú,2011;Kukush,2019)。为了进行假设的统计检验,我们只考虑特征属性(留下索引变量I,即,在识别面部图像的聚类集合之后,属性的中值的平均值)。关键和目标特征张量矩阵表示为用符号FVM k M;N和FVM t M;N(M = 1,2,.. . ,10; N = 1,. . ,4)。每个张量矩阵表示一个面部并且目标面部图像的特征向量yi的线性组合被定义为I t¼f1y1f2y2.. . fnyn方程中定义的函数之间的第一典型相关系数(CCC)。(27)和(28)是其中最大的变量Ik和It之间的相关系数,其被认为是关键面部图像和目标面部图像之间的CCC系数。要最大化的函数是qmax corr Fk Ik; Ft ItIk;IthFk Ik;Ft Iti图像,它有十行和四列。假设张量矩阵是多维高斯分布q最大值Ik;ItkFk IkkkFt Itkð29ÞFM. Vasanthi和K. 西塔拉曼沙特国王大学学报4117N1/1^2、图六、裁剪的面部图像。从LFW数据集裁剪第1至3行;从Pointing'04数据集裁剪第4至5见图7。从Pointing '04数据集中截取面部图像如果E½f<$x;y<$]表示函数的经验期望E^½hIk;xihIt;yi]fx;y,则E½fx;y]¼1PN fxi;yiq<$maxIk;ItsE2EhIt;y i hIk;xið30Þ现在,相关函数可以被重写为等式(1)。(30).M. Vasanthi和K. 西塔拉曼沙特国王大学学报4118qmaxk×K一K不一面部图像相同或相似;否则,两个图像不同。不v2¼ -p-1-2mn1ln1-q^j“#Cy y¼ðÞE^I0kxy0It见图8。 名人的脸从谷歌收集的图像。它是渐近分布的卡方变量q¼maxIk;ItrE^I0xy0IE^I0xy0Ið31Þ对于大样本量,N.如果q=1k;I=2,则关键面部图像和目标面部图像可以是<当量(31)可以写成如下,I0kE^½xy0]ItqI0E^xy0]IkI0E^xy0]Itð32Þfer,其中a表示显著性水平(Mardia等人, 1979年)。4. 面部图像数据集其中,I0代表向量或矩阵I的转置。新坐标(x,y)上的Ik和It的协方差矩阵为为了验证所提出的人脸识别方法,我们构建了一个我们感兴趣的人脸图像数据库,其细节如下:下面给出此外,我们还考虑了数据集,如GTCx;yE^“。x!x的!#CxxCxyCxyCyy¼33数据集(Muqeet和Holambe,2019;Mahmoodi和Sayedi,2015),LFW数据集(Mahmoodi和Sayedi,2015)数据集(Dantcheva等人,2018年,为实验。面部表情-C代表块矩阵,表示总协方差,图像内像素的协方差矩阵由C xx和Cyy表示,图像之间的协方差矩阵由Cxy和C0yx表示。因此,我们可以将函数q重写为等式。(三十四)。I0Cxy It讨论了真实矢量数据库的建立第3.2节。GT数据集:Georgia Tech Faces数据集,由50个主题的750张彩色人脸图像组成。数据集中的所有受试者都由15张彩色JPEG图像表示,背景尺寸为640× 480像素。这些照片中的脸的平均大小是^^^ð34Þ150像素。这些照片显示了不同面部表情、光照条件和比例的正面和倾斜面部。每个图像都被手动标记以确定面部的位置q的最大值表示最大CCC,尊重IK和IT。由于CCC,qi是渐近分布的卡方(v2)分布,将其与v2分布的临界区域进行比较,以检验在显著性水平a下的假设检验。假设检验公式如下。假设:H0:Ik¼It或Ik It假设Ha:IkV2引擎 测试用Eq. (35)。.1Σ我的儿子;2Σ第1页图像中LFW数据集:LFW数据集是人脸识别领域中最受欢迎的数据集之一,其包括真实世界情况下人脸图像的所有变化,包括头部姿势、照明和肤色的显著变化。LFW由来自5749个不同年龄和性别的不同主题的13,233张人脸图像组成。Pointing这15名受试者的面部图像是戴眼镜和不戴眼镜的,肤色可能会因受试者而异头部姿势方向由两个方向(水平和垂直),其范围从-90度到+90度。因此,有2790个面部图像。q¼ maxI; ItkK不ð35ÞM. Vasanthi和K. 西塔拉曼沙特国王大学学报4119X1@ ¼. X¼..¼..¼×ðÞ · ðÞ**0:00 0:00 00:00我们的数据集:它由通过互联网从Google收集的名人的3575张人脸图像和由数码相机捕获的许多不同的人脸图像5. 性能度量采用Fb-测度和Precision@a(P@a)来衡量所提出方法的性能,其中a表示显著性水平。P@a使用等式中给出的方法计算。(36)。Fb-度量表示精确度(P)和召回率(R)值的调和平均值,并且其在等式2中表示。(38)Fb衡量的是用户对查全率的重视程度是查准率的b倍(VanRijsbergen,1979)。其中,REL和RET表示相关性和检索。检索的意思是检索到的面部图像的总数;相关性意思是检索到的与关键输入面部图像相关的面部图像的数量。6. 实验和结果为了验证和验证所提出的方法,该方法已使用Python cv2使用第4节所提出的方法是用系统规范实现的:英特尔酷睿i5处理器驱动的PC,3.5 GHz,8 GB DDR4 RAM,英特尔主板D97和4.0 GB显卡;Windows 10操作系统为系统提供动力。上述数据集进行了实验-MPamC¼1其中,1Nng¼1Pg!ð36Þ在面部图像的各种组合中的各种显著性水平的部分。首先,所提出的方法使用第3.1节中讨论的方法对给定的输入密钥图像进行预处理。基于第3.2节中讨论的特征提取方法,几何特征和低级视觉特征P检索到的相关图像数检索到的图像总数G表示类中相同对象的面部图像集合的数量(例如,在Pointing ′ 04数据集中存在同一对象的两组面部图像); C表示类的数目(例如,Pointing '04数据集中的15个类提取。将提取的特征与特征向量数据库使用CCC方法,这是讨论在第3.3节。在1%~ 40%的不同显著性水平由于空间限制,例如,图1中的输入键面部图像。在图9(a)中,其取自Pointing '04数据集,并且在图9(b)-(j)中呈现了对应的输出面部图像。图9(a)中的图像作为系统的输入给出。Fb测量¼。1美元b2美元PR. b2×PRð37Þtem,其在显著性水平1%下响应图9(b)中的图像,即,a= 0.01;当a=0.05时,系统返回图9(b)和(c)中的图像;接收图9(b)-其中,b值是相对于赋予P和R的权重来确定的。在本文中,b被固定为0.5,因为精度被赋予了更多的权重。因此,Eq.(37)可以改写为方程。(38).当a= 0.1时,识别为相同的面部图像;图9(b) a为0.2时,图9(b)-(f ) 中的 图像 被检 测为 与输 入图 像相 同; 9(b)- ( g) 作为 产出退回F05测量1/41/2 0: 52× P×P× R×R× þð ÞP.REL图像%s\。Retimage. Retimages.R. REL图像Retimage. REL图像。ð38Þð39Þð40Þ结果,当a = 0.25;在a = 0.30,图中的图像。当a = 0.35时,识别图9(b)-(i)中的图像;当a = 0.35时,识别图9(b)-(i)中的图像。当a固定在0.4时,检测图9(b)-(j)中的图像并作为输出结果返回。验证结果用线图表示,并在图中进行了说明。 10个。当在1%的显著性水平下进行测试时,所提出的系统以%的准确度返回结果; %的准确度意味着系统仅检测到与输入键图像相同的图像,或者可以是见图9。指向04数据集。带有标签“a”的最上面的面部图像:输入图像;第1行和第2行:检测到的面部图像:带有“×”红色标签的图像:错误检测到的面部图像。在面部图像下方给出了检测到的面部的显著性水平(有关本图例中颜色的解释,请参阅本文的网络版本M. Vasanthi和K. 西塔拉曼沙特国王大学
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
- SPC统计方法基础知识.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功