没有合适的资源?快使用搜索试试~ 我知道了~
区域和子图像邻域梯度特征提取眼周识别算法研究
沙特国王大学学报基于区域和子图像的邻域梯度特征提取及其眼周识别Sheela Ramachandraa, Suchithra Ramachandranba印度班加罗尔耆那教大学计算机科学信息技术学院计算机应用学士系b理学硕士系。印度班加罗尔耆那教大学信息技术专业阿提奇莱因福奥文章历史记录:接收日期:2022年2022年7月14日修订2022年7月18日接受2022年7月22日在线提供保留字:眼周识别HOG特征提取KAZE特征提取梯度识别精度A B S T R A C T本文提出了一种基于区域和子图像的邻域梯度特征提取的眼周识别算法,以达到更好的识别效果。该方法在检测到左右眼角点后,首先将眼周区域分割为眉毛、眼角区域、上眼皮区域和下眼皮区域等四个子区域。采用KAZE特征提取算法对上眼皮区域进行特征提取,采用HOG特征提取算法对眉角区域进行特征提取。该方法还估计了通过估计从眉毛区域上的N个点到眼角中点的距离来确定眉毛的形状。眉毛形状特征还包含通过眉毛上的N个点的宽度和高度测量。眉毛的形状。该方法还提出了一种基于子图像的邻域梯度(SING)特征提取方法,从3× 3的子图像中提取邻域梯度特征。 最后,使用朴素贝叶斯分类器训练提取的特征。实验评价使用AR数据集、CASIA Iris距离数据集和UBIPr数据集,使用以下指标完成作为rank-1,rank-5识别准确度,ROC曲线下面积(AUC)和等错误率(EER)。该方案对UBIPr、CASIA-Iris和AR数据集的秩1识别率分别为92.32%、97.41%和97.87%。实验结果表明,该方法优于传统的眼周识别算法。版权所有©2022作者。由爱思唯尔公司出版代表沙特国王大学这是一个在CC BY-NC-ND许可证下的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。1. 介绍人脸的自动识别是部分人脸生物测量人脸识别中的一个具有挑战性的任务。因此,眼周识别(Miller等人,2010)旨在使用在眼睛周围的区域中提取的特征来识别人。这种眼周识别利用由鼻子、颧骨和眉毛顶部的中线包围的区域。眼周面部特征包括来自眼角、眉毛、眼褶和皮肤纹理的特征,如图1所示。人脸识别系统(Mahalingam和Ricanek,2013)在局部人脸上没有表现出良好的性能,例如戴头盔的脸、*通讯作者。电 子 邮 件 地 址 : sheelamohare@gmail.com ,m. jainuniversity.ac.in(S.Ramachandra)。沙特国王大学负责同行审查面具,头发和眼镜,如图所示。 二、实时应用之一(Raghavendra等,2013年)的眼周区域是识别罪犯从监控视频谁是戴着口罩。如今,由于COVID-19大流行,佩戴口罩也是强制性的,在这种情况下,基于面部识别的生物特征显示出较差的性能,并且需要有效的基于眼周的生物特征识别。由于表情的变化,人脸生物特征识别的性能也会降低。面部的上部比面部的下部更能抵抗变化由于眼周识别覆盖面部的上半部分,因此眼周识别更鲁棒(Raja等人,2020年)比面部表情识别。虹膜识别等眼部识别在部分人脸下提供良好的识别结果,但需要眼睛近距离聚焦眼周识别不需要近距离聚焦(Santos等人, 2015年)的相机像眼睛(巩膜,视网膜和虹膜)生物识别。本文的主要贡献如下,(i) 本文提出了一种混合特征提取算法,从不同的区域提取不同的特征,https://doi.org/10.1016/j.jksuci.2022.07.0131319-1578/©2022作者。由爱思唯尔公司出版代表沙特国王大学这是一个在CC BY-NC-ND许可证下的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。制作和主办:Elsevier可在ScienceDirect上获得目录列表沙特国王大学学报杂志首页:www.sciencedirect.comS. Ramachandra和S. Ramachandran沙特国王大学学报7962图1.一、眼周区域的表 示 (Alahmadi等人, 2020年)。眼周面部图像。混合特征提取的目的是提取更多的基本描述符,可以很容易地区分的个性。(ii) 通过采用匹配良好的特征提取算法,提取眼周区域因此,该方案在不同的人眼区域中使用不同的特征提取(区域特定的)算法(iii) 眉毛的形状是必不可少的特征,其中沿着上眉毛边界和下眉毛边界(宽度和高度)提取形状特征可以提供有效的识别结果。因此,所提出的方法使用眉毛形状特征提取算法,将从眉毛区域估计的三层划分为N个点。该眉毛形状特征给出了贯穿N个点的形状变化。(iv) 本文还提出了一种SING特征提取算法,该算法对旋转具有较强的鲁棒性,可以提高识别效果。本文的后续部分如下:第2部分展示了眼周识别的一些相关工作。第3节讨论了所提出的眼周识别算法的工作。实验结果和评估所提出的方案在第4节中,最后,在第5节中提供的结论。2. 相关作品一些研究人员提出了几种有效的眼周识别方法。这些办法可以是全球性的,也可以是地方性的。全局特征提取算法从完整的眼周区域提取特征。这些全局特征提取方法包括颜色直方图(Woodard等人,2010)、梯度的直方图(Park等人,2009)和Block HOG(Dalal和Triggs,2005)。局部特征提取方法的目标是在将眼周区域细分为若干区域之后提取特征。常用的局部特征提取算法是尺度不变特征变换(SIFT ) (Alonso-Fernandez 和Bigun ,2014 ) 、加 速 鲁棒 特征( SURF ) ( Xu 等 人 , 2010 ) , 通 过 特 征 扩 展 进 行 对 称 性 评 估(Alonso-Fernandez例如,2015),相位密集局部模式(Bakshi et al.,2015)和局部二进制模式(Bakshi等人, 2014年)。对于测试图像的分类,可以使用基于距离的方法,例如欧几里德(Park等人,2011)、均方误差(Smereka等人,2016)、卡方(Bharadwaj等人,2010)、Ham-ming距离(Oh等人,Bhattacharya距离(Woodard例如,2010 a)和K-最近邻(KNN)(Padole等人,2012年)。深度学习算法(Suchetha等人,2021; Das等人,2021)在不同的分类应用中提供更好的性能。由于深度CNN算法需要庞大的数据集进行训练,因此很难训练模型。通常,边界提取形状特征。Proença(2014)使用眼睑的形状,而Le等人(2014)使用眉毛的形状。使用眉毛形状特征对AR和MBGC数据集分别提供了76.0%和85.0%的准确率Woodard等人(2010a)在从RGB图像获得HSV分量后估计了颜色特征。眼周区域还包含基本的纹理信息,其可以使用像LBP(Mahalingam等人, 2014)、二进制统计图像特征(Raja等人,2014)和Leung Malik滤波器(Tan和Kumar,2013)。LBP特征的使用提供了76.83%的rank-1准确度。但Leung Malik过滤器的使用分别将UBIRIS v2、FRGC和CASIA V4距离数据库为了改进具有部分面部的面部识别算法的性能,使用基于部分的表示(Ahonen等人,2006年)。在这种方法中,面部区域被细分为几个块,在面部匹配过程中块的相似性估计。这种方法的缺点是,对于真实世界的局部面,零件是非结构化的。为了基于几何分布对齐两点集,提出了确定性退火过程(Chui和Rangarajan,2003)。然而,这种方法使用纹理或几何信息,因此它不适合于大多数局部人脸识别。在局部二进制模式方案(Mahalingam等人,2014),它使用窗口,并且相对于中心像素以顺时针或逆时针方向提取其相邻像素的特征。该特征是依赖于窗口的旋转,即,如果窗口被旋转,则特征值被改变。二值统计图像特征(BSIF)利用独立分量分析提取纹理特征。通过特征提取算法提取的特征的维数也可以使用诸如线性判别分析(Joshi等人,2014)和主成分分析。Oh等人(2012)提出了一种使用眉毛形状的眼周系统,其中作者掩蔽了虹膜区域,但虹膜区域的掩蔽降低了识别精度。因此,Ambika等人(2017)使用了Zernike矩和局部二进制模式提取的形状和纹理特征的融合。Cho等人(2017)将面部图像的笛卡尔坐标映射到极坐标,最小化眼睛的旋转效应。Zhao和Kumar(2017)提出的卷积神经网络方案使用了诸如ethnicity 和 gender 等 额 外 信 息 来 训 练 CNN 模 型 。 Bakshi 等 人(2018)在智能手机中应用降低的面部强度局部模式图二、 其中眼周识别(Alahmadi等人, 2020年,表现良好。S. Ramachandra和S. Ramachandran沙特国王大学学报7963ð Þ ðÞ.- 是的Σ.Σ.- 是的Σ.- 是的- 是的Σ.ΣC.ΣC22m;i;m;i二、2;;··· ···::-ð Þ;;L;iC;;;;.- 是的Σ生物识别Zhao和Kumar(2018)引入了ROI检测网络和注意力模块,为交易和匹配提供关键组件的偏好(Chen等人,2017)利用了五个不同的局部特征,例如从眉毛和上眼睑之间的区域提取的特征、眉毛和上眼睑之间的距离、内眼角的上部区域中的强度、来自泪管区域的纹理特征和虹膜颜色。他们已经应用了LBP特征提取方法后,通过统计主动形状模型检测的功能为了增强具有较差纹理信息的图像,(廖等人(2017)提出了一种改进的retinex理论,可用于增强图像。Ritesh(2022)使用了深度特征和手工特征的协作渲染。该方法通过将周期图像划分为不同的组来估计局部统计特性。使用卷积神经网络(CNN)ResNet-101模型来提取深度特征。基于属性的眼周识别(Talreja等人,2022)与共享CNN层一起使用,其输出被馈送到两个模态专用层;它还将眼周特征与预测的软生物特征融合。具有深度特征融合的多重注意机制用于(Luo et al.,2021)虹膜眼周识别。多重注意机制包括共同注意和自我注意两个过程。为了提取特征,自注意机制使用另外两种注意机制,即通道注意和空间注意。为对于双眼的眼周区域,提取的特征的数量是2NT。(a) 预处理面部/眼周图像最初使用反锐化掩蔽方案进行锐化,并且这样做是为了去除相机的模糊效果(b) 眉眼角点检测经过预处理后,检测出人脸的眉角点和眼角点。通过局部眉毛主动形状模型(Hollingsworth等人,2013)算法,从该算法检测眉毛的下边界和上边界。使用算法检测眼角点(Holden等人,2002年)。眉毛和眼角点的表示如图所示。第4(a)段。使用眼角点和如图4(a)所示的眼角点,分割其他区域。(c) 眉毛形状特征估计眉毛的形状多种多样,因此眉毛的形状特征是区分人与人的重要特征之一。设xa;ya和xb;yb是由眼角点检测算法检测到的内角点和外角点连接角点的直线的中点由下式给出:x;y xaxb;yayb2提取眼周特征Kumar等人(2021)使用来自4个相等的非重叠子区域的非重叠内插LBP特征。该方法还提取了人脸密集的全局模式特征和直方图特征,以提高识别率。手工制作的HOG特征以及使用SVM分类器(Kumari和Seeja,2021)预训练的CNN非手工特征也提供了令人满意的识别结果。大多数用于眼周识别的深度学习技术如果用于训练的图像数量减少,深度学习模型的性能就会降低。此外,上面讨论的论文确实使用眉毛检测算法,如图4(a)所示,从眉毛的内极值点和外极值点(也称为眉毛角点)估计眉毛边界。将眉毛端点连线等分为N段,并构造N条与AB线垂直的直线。在眉毛的上下边界相交的垂直线表示作为xu;i;yu;i 和xl;i;yl;i分别,哪里i¼0; 1;N-1,如图4(b)所示。 从N个上和下边界点xu;i;yu;i和xl;i;yl;i,中点估计为而不是提取出更具体的特征来区分与特定区域相对应因此,所提出的方法从不同的区域提取不同的特征,. XyΣ. xu;ixl;i你;我0 1 2N1 3与其他传统方法相比,提高了识别效果本文提出了一种特定区域的分割,分割的眼周区域分为4个区域,从5个不同的特征提取。本文还提出了一种特征提取算法来提取眉毛形状和下眼褶区域的特征下一部分示出了所提出的基于区域的眼周识别算法。3. 提出的眼周识别算法图3示出了所提出的眼周识别算法的框图。本文提出的眼周识别算法分为训练和测试两个阶段。无论是在训练和测试阶段,眼角的中点xc;yc;连接到点xm;i;ym;i,并且它向外延伸,使得它撞击上眉毛边界和下眉毛边界。它撞击的那一点上和低眉边界是表示为x U;i;y U;i和x L;i;y L;i。三层(上眉毛层、下眉毛层和中间层)用于提取眉毛形状特征。距离中心-并且点xL;i;yL;i、xm;i;ym;i和xU;i;yU;i分别表示为SL;i、Sm;i和SU;i,如图5(a)所示。使用等式(1)中给出的关系来计算距离SLi类似地,使用等式(4)中表示的相同欧几里得距离公式来计算距离Sm;i和SU;i(四)被提取的,表示为F1、F2、F3、F4和F5。五个不同的-对眼周区域进行分割后,SLi¼q.ffiffi ffixffi ffiLffiffiiffiffi ffi—ffiffiffi ffixffiffi fficffiΣffiffi ffi2ffiffi ffiþffiffiffiffi ffi.ffiffiyffiffiffiffiffiffiffi-ffiffiffiffiffiyffiffiffiffiΣffiffi2ffiffið4Þ区域分为四个不同的次区域。这些区域即是眉毛、上眼褶、下眼褶和眼角区域。除了从四个区域中提取的特征外,还提取了眉毛形状特征。设N1、N2、N3、N4和N5是F1中存在的特征的数量,F2、F3、F4和F5。 因此,FEA的总数-特征S L;i;S m;i和S U;i给出眉毛高度信息,而特征d U;i;d L;i给出眉毛宽度信息。 将连接点xa;ya; xm;i;ym;i的线延伸到眉毛的上边界。它连接的点上眉毛和下眉毛由下式给出。x0ui;y0uii.x0li;y0li从单眼眼周区域提取的图像是NT1N2N3N4N5ð1Þ如图5(b)所示。 同样,连接点xb;yb; i和xm;i;ym;i延伸到眉毛的上边界。它连接上下两层的点¼¼S. Ramachandra和S. Ramachandran沙特国王大学学报7964图三. 提出的眼周识别的框图。图四、(a)眼角点、眉角点的表示(b)用于眉毛形状特征估计的三重眉毛层S. Ramachandra和S. Ramachandran沙特国王大学学报7965.- 是的Σ.- 是的ΣΣΣ.- 是的Σ. Σ. - 是的Σ. - 是的ΣU;iRu;iU;iu;iU;i图五. 眉毛形状特征的表示(a)眉毛高度特征(b)眉毛宽度特征。眉毛分别由x0U;i;y0U;i和x0L;i;y0L;i给出。使用欧几里德距离关系估计x0u;i;y0u;i和x0U;i;y0U;i之间的距离,D1/4室ffiffi ffixffiffi ffi0ffiffiffiffi ffi—ffiffiffi ffixffiffi ffi0ffiffiffi ffiΣffiffi ffi2ffiffi ffiþffiffiffiffi ffi.ffiffiffiyffiffi0ffiffiffiffiffi-ffiffiffiffiffiyffiffi0ffiffiffiffiffiΣffiffi2ffiffið5Þ类似地,x0l;i;y0l;i和x0L;i;y0L;i之间的距离 作为d L;i.的N2number的眉特征是表示作为S1/4SL;i;Sm;i;SU;i;dU;i;dL;i,其中N2/45N。(d) 眼褶眼角区域分割上眼褶区域是连接两个眼角点与眉毛中间层以左眼角为圆心,点A与点A之间的距离为和x a;y a 作为半径a半圆是形成冰碛的点(最小值X0l ;Y 0l),其中X0l;Y 0l是由圆包围的边界像素的位置,该圆的中心是x a;y a a,半径是点A和点A之间的距离是x a;y aa。左眼角区域是由点A,a,b,x,a;y,a,b,(minX 0l)包围的区域 ;Y 0l),左半圆边界。遵循相同的过程来估计右眼角区域。下眼褶区域是从连接点x a;y a,x b;y b,(minX0r)的区域估计的 ;Y 0r)和(minX0l ;Y 01)如图1B所示。 六、(e) 生猪特征提取眉毛的纹理因人而异,其中眉毛中毛发的集中和排列是非常不同的。此外,眼角区域附近的结构/形状也是重要的特征。HOG特征提取算法可以提取这样的形状/结构特征。它还可以提取眉毛区域的图案,这取决于毛发的浓度和排列。HOG特征提取算法(Dadi等人,2016)应用于眉角区域和眉毛区域(上边界层和下眉层之间的区域),分别获得特征F5和F1。HOG特征用于眉毛区域,因为它可以提取眉毛的纹理,该纹理还包含与毛发的浓度和对齐相关的特征。在眼角区域,可以通过HOG特征提取鼻梁的形状。HOG特征提取计算检测窗口中的梯度方向,其涉及诸如梯度估计、方向分箱和特征描述的过程。梯度估计:这计算垂直方向以及水平方向,从该水平方向估计幅度和角度。见图6。 眼褶和眼角区域分割。方向合并:图像被细分为称为单元格的小区域。基于梯度角,每个像素都被选向不同的方向。特征描述:在这种情况下,一个块是由相邻单元格组成的分组后,使用L2范数对块进行归一化设N1是从单个眉毛区域提取的HOG特征的数量,N5是从左眼角区域和右眼角区域提取的HOG特征的数量。在鼻侧眼角区域和耳侧眼角区域的特征比较中,鼻侧眼角区域的特征具有更多的HOG的基本特征(f) KAZE特征提取上眼睑的特征取决于眼睛的闭合。尽管此功能根据闭合量而有所不同,对于眼睛的轮廓,可以使用KAZE算法来提取上眼睑附近的整体形状。因此,将KAZE特征提取算法(Okawa,2018)应用于上眼褶区域,以获得特征F3。在KAZE特征检测中使用了加性算子分裂和传导扩散,保留了上眼褶皱的边界和清晰度细节让被梯度算子,而Div表示发散算子。非线性扩散的方程表示为,@我@d¼divrxs;ys;d:rI6S. Ramachandra和S. Ramachandran沙特国王大学学报7966ðÞEr I我是kDr1-Dr2kIj1 ¼I-dj1-dj比例参数d提供图像的不同表示。如果d高,则边缘将被模糊并且提供更简单2.第二章我是XX-Ixy29表示. 电导函数r取决于不同的xs处的基本结构;ys。非线性扩散的方程也可以离散形式表示为,利用最近邻距离比对测试图像和训练图像进行特征匹配。两个区域r1和r2被称为匹配区域,如果Ij1-IjXs¼. j j1第1页其中s是时间步长。对于一个n维的图像,该con-kDr1 -DrkT可导性编码矩阵是Er。Ij 1的解可以如下获得:其中Tndr是阈值。Dr2;Dr是Dr1的第一和第二近邻。(g)基于子图像邻居梯度(SING)功能..X.快!-1提取与其他区域相比,下眼褶区域是眼周中的较低频率区域。因此,相对于尺度,微分算子被归一化。令Dyy;Dxx;Dxy分别为二阶垂直、水平和交叉导数。多尺度特征检测是,特征用于提取整个下眼褶区域中强度的小变化。通过SING特征提取算法可以提取下眼睑的特征。图7.第一次会议。 对于不同元素与相邻元素(a)G 5(b)G 2(c)G 4(d)G 6(d)的梯度估计。G 8图8.第八条。来自不同数据集的样本测试图像(a)UBIPr数据集(b)CASIA-Iris距离数据集(c)AR数据集。nnð7Þ第1页Er Ij我是201S. Ramachandra和S. Ramachandran沙特国王大学学报7967×××6475i;jJ我SING特征是在从3 × 3子图像中检测出特征点后估计的因此,图像最初被细分为3 × 3个不重叠的块。让33子图像由矩阵表示为2I1I2I33G2¼。G2;1;G2;3;G2;4;G2;5;G2;6G4¼。G4;1;G4;2;G4;5;G4;7;G4;8G6¼。G6;2;G6;3;G6;5;G6;8;G6;9第一部分我4我5我6我11我I7I8I9G8¼。G8;4;G8;5 ;G8; 6 ;G8; 7 ;G8; 92012年12月5日特征和特征点是使用由G1/4 jI-Ij给出的梯度幅度来估计的,该梯度幅度是如图7所示针对元素I5、I2、I4、I6和I8及其相邻元素计算的。中心元素I5与相邻元素的梯度由下式给出:G5¼。G5;1;G5;2;G5;3;G5;4;G5;6;G5;7;G5;8;G5;9梯度元素的组合形成。G2;G4;G6和G8G05¼fG2;G4;G6;G8g1/4。G2; 1;G 2; 3;G 2; 4;G 2; 5;G2; 6;G4; 1;G 4; 2;G 4; 5;G 4; 7;G 4; 8;G6; 2;G6; 3;G 6;5;G 6; 8;G6; 9;G8; 4;G8; 5;G8; 6;G8; 7;G8; 9g图9.第九条。从UBIPr数据集图像中提取单眼眼周特征(a)输入眼周图像(b)眼睛和眉毛角检测(c)感兴趣区域分割(d)眉毛形状特征提取(e)下眼区域的特征(f)眼角区域的特征提取(g)上眼区域的特征提取(h)眉毛的特征提取S. Ramachandra和S. Ramachandran沙特国王大学学报7968ð ¼ÞB×ðJ¼ÞPQthi<$1j;iP¼···.P.CUP联系我们;i¼1;P¼66F65;B二、4个;68G2、G4、G6、G8中的最大梯度位置之一,p^Z^qja1;a2;. . . :aR=1S1/1;1/1;1/1;¼j/1jji<$1 j;iF 1;KF1;KF 1;KF1;KF1;KF5; 27L4L5.P PP全局梯度元素由以下元素的组合形成。G G G和G从训练图像bFD;k中提取的图像,使用朴素贝叶斯分类器。 朴素贝叶斯分类器(Leung,2007)Gg¼ fG5;G2;G4;G6;G8 g1/4。G5; 1;G 5; 2;G 5; 3;G 5; 4;G 5; 6;G 5;7;G 5;8;G 5; 9;G 2; 1;G 2; 3;G 2; 4;G 2; 5;G 2;6;G 4;1;G4; 2;G 4; 5;G 4; 7;G 4; 8;G 6; 2;G 6; 3;G 6; 5;G 6; 8;G 6; 9;G 8; 4;G 8; 5;G 8; 6;G 8; 7;G 8;9g2013年12月13日设Pm,Pm;2,Pm;4,Pm;6,Pm;8为极小值的位置假设分类预测器是条件独立的,其通过估计概率密度来对数据进行分类。分类器使用最大后验原则,将测试数据分配给最可能的类。设观测值的随机预测因子的个数R为a1;a2;·· ·:aR。设Z为随机变量,类似于类指数q的能力,因此先验概率类索引q的值可以表示为XZq。Navies Bayes分类的伪代码可以总结如下,G5、G2、G6和G8的梯度。设PM,PM;2,PM;4,PM;6,PM;8是G5、G2、G4、G6中最小梯度的位置,G8分别相对于图中所示的附图。 7(a)至(e)。SING特征点使用以下条件伪代码1:朴素贝叶斯分类算法开始pm公司简介男;2名BMPM;4P.P.M;6BMPM;8 埃克塞特·M公司简介m;2 Pm;4Pm;6Pm;8输入:提取的眼周特征FD;k和Ft对于q1到rð14Þ在上面的等式中,+和分别表示逻辑OR和的33个邻居具有SING特征点如果G中最小梯度的位置,与任何估计先验概率X<$Z<$q<$对于s¼1至R估计概率pasZq计算概率,5XXZ¼qQSG中的最大梯度和任何一个Rq¼15pajZ<$qpasjZ <$q相对于图7(a)至(e)中所示的图,G2、G4、G6、G8中的梯度位置设T为根据3 × 3梯度子图像的全局梯度值Gg估计的Otsu设n1、n2、n3、n4和n5是在G2、G4、G6和G8。设M1、M2、M3、M4和M5是其值大于所示T的最大梯度值分别是G2、G4、G6和G8设Ljg为j中梯度值之和梯度矩阵,即j 1; 2:5。可以使用关系从SING特征点提取.n1M1-L1 g1i.n2M2-L2 g2i。n3M3-L3 g3i网络n4M4-g4 i M5-g5 in1n 2n 3n 4n 5ð15Þ端端估计测试图像的最大后验概率如果测试图像的最大后验概率为0: 25识别结果:眼周分类未识别其他识别结果:具有最大后验概率的类。end if输出:认可的结果端(i)眼周识别算法所提出的眼周识别的伪代码可以总结如下。上述等式也可以表示为:P5 .nM-PLj gn伪代码2:眼周识别ð16Þ开始45j/1j使用特征提取公式,SING特征提取。(h)特征匹配设Ft为从测试图像中提取的特征,Ft½½F1;F2;F3;F4;F5]17mm从K个训练图像中提取的特征表示为bFD;K对于k1到K1. 检测眉毛、眼角、上下眼折叠区域。2. 从眉毛区域构建三层结构3. 从上眼睑区域提取KAZE特征F3,从眼角区域提取HOG特征F54. 从下眼睑区域提取SING特征F45. 估计眉毛形状特征F2和眉毛纹理特征F1.6. 从第k个图像Fk1;k,F2;k,2FFD;k¼41个;1个1;2..F2;1F2;2..F3;1F3;2..F4;1F4;2..F5; 13.75ð18ÞF3;k,F4;k,F5;k].7. 将特征Fk存储在变量FD;k中端8. 在测试图像上应用步骤1至7,以获得测试特征Ft。9. 将伪代码1用于朴素贝叶斯分类器,训练其中k 1; 2······::K 和K 是图像的数量,特征bFD;k,并使用测试特征Ft来估计rec。受到了培训这里F1;k,F2;k,F3;k,F4;k,F5;k 五个不同的特征认类。输出:显示识别的结果。从第k个训练图像中提取让提取的特征端Ss1FF4BS. Ramachandra和S. Ramachandran沙特国王大学学报7969从第k个训练图像是Fk1/4 =F1;k,F2;k,F3;k,F4;k,F5;k]:S. Ramachandra和S. Ramachandran沙特国王大学学报7970××4. 实验结果使用以下数据集评估了所提出的眼周识别算法的性能:UBIPr( Padole , 2012 ) ; CASIA-Iris 距离 ( ASIA-Iris 距离 数据 库,2018)和AR数据集(Martinez和Benavente,1998),其中图8中描绘了少量样本图像。使用rank-1、rank-5识别准确度、等错误率(EER)和ROC曲线下面积(AUC)等指标进行评估。对来自UBIPr数据集的单眼和双眼周图像 图图9描绘了来自UBIPr数据集图像的单个眼周区域的特征提取。在所提出的方法中,HOG特征提取算法使用8 8块重叠的单元大小为1 1。 方向直方图箱的数量为9。KAZE特征提取使用局部极值阈值为0.0001,尺度级别数为3。朴素贝叶斯分类器使用正态分布,其中待训练的受试者的数量作为类的数量。图10个。来自AR数据集的眼周特征提取(a)输入眼周图像(b)眼角和眉角检测(c)感兴趣区域分割(d)眉毛形状特征提取(e)下眼区域上的特征(f)眼角区域上的特征提取(g)上眼区域上的特征提取(h)眉毛上的特征提取见图11。眼周特征提取CASIA-Iris数据集(a)输入眼周图像(b)眼睛和眉毛角检测(c)感兴趣区域分割(d)眉毛形状特征提取(e)下眼区域特征(f)眼角区域特征提取(g)上眼区域特征提取(h)眉毛特征提取。S. Ramachandra和S. Ramachandran沙特国王大学学报7971AR数据库包含70名男性和56名女性的面部正面图,共4000张彩色面部图像。图像具有不同的照明条件、遮挡和面部表情。CASIA虹膜距离数据集包含具有双眼和人脸模式的图像作为感兴趣区域UBIPr数据集包含单眼和双眼分割版本面部图像。图图10、11、12分别示出了从AR数据集、CASIA-Iris和UBIPr数据集提取的特征。将所提出的方法的性能与传统方法如ImageNet(Krizhevsky等人,2012),虹膜识别(Gangwar和Joshi,2016),聚类(Schroff等人,2015)、LCNN(Wu等人,2018)、多水平(Soleymani等人,2018)、VGG16(Parkhi等人,2015)、OC-LBCP(Tiong等人,2019)、I-LBP(Kumar等人, 2021),注意力(Luo等人,2021)和EN-IR(Vyas,2022)。表1描述了拟定方法与传统方法的EER和AUC比较。所提出的方法的EER是小于传统的方法相比,所有三个数据集。该方法对UBIPr、Casia Iris和AR数据集的EER分别为3.08%、4.12%和4.92%。UBIPr数据集的AUC高于然而,所提出的方法为所有三个数据集提供了大于0.99的AUC。图13描绘了针对三个数据集的所提出的方法与传统方法的受试者工作特征曲线(ROC)比较。对于UBIPr、CASIA Iris和AR数据集,所提出的方法比EN-IR(Vyas,2022)方法的分别此外,对于UBIPr、Casia Iris和AR数据集,所提出的方法的AUC分别估计为0.9948、0.9908和0.9901表2示出了针对三个数据集的所提出的方法与传统方法的秩-1和秩-5识别精度在三种数据集上,该方法的rank-1和rank-5识别精度秩-5识别率被发现是6.41对于UBIPr、CASIA虹膜距离和AR数据集,识别率分别比rank-1识别率高1.54%和1.25%。对于UBIPr数据集,单眼眼周冲洗估计为87.86%,98.23% 。 对 于 双 眼 眼 周 的 rank-1 和 rank-5 识 别 准 确 率 估 计 为96.78%,99.23%。所提出的方法提供了一个高的识别率为双眼眼周图像比单眼眼周图像。图14描绘了所提出的方法与传统方法的秩-1和秩-5识别准确度的图形比较。对于数据集UBIPr、CASIA-Iris距离数据集和AR数据集的秩1识别 准 确 率 估 计 分 别 为 92.32% 、 97.41% 和 97.87% 。 对 于 UBIPr 、CASIA-Iris和AR数据集,该方案的秩1精度分别比EN-IR(Vyas,2022此外,对于UBIPr、CASIA-Iris和AR数据集,所提出的方法分别比EN-IR(Vyas,2022)方法在实验结果表明,建议的眼周见图12。来自UBIPr数据集的双眼眼周特征提取(a)输入眼周图像(b)眼睛和眉毛角检测(c)感兴趣区域分割(d)眉毛形状特征提取(e)下眼区域上的特征(f)眼角区域上的特征提取(g)上眼区域上的特征提取(h)眉毛上的特征提取。表1EER和AUC与传统方法的比较。方案UBIPrCASIA-IrisAREER(%)AUCEER(%)AUCEER(%)AUCImageNet(Krizhevsky等人, 2012年)7.11± 2.90.98058.06± 5.30.953314.530.9363虹膜识别(Gangwar和Joshi,2016)5.07± 2.20.98777.51± 1.10.96747.690.9751聚类(Schroff等人,( 2015年)5.46± 1.50.9876.10± 2.20.97389.40.9692LCNN(Wu等人, 2018年)6.34± 2.10.98496.34± 1.60.97199.390.9737多级(Soleymani等人, 2018年)4.09± 2.10.99138.69± 1.10.95947.690.9756VGG16(Parkhi等人,(2015年)4.38± 1.30.98927.42± 1.70.96817.690.9747OC-LBCP(Tiong等人, 2019年度)4.21± 1.80.98986.35± 0.50.9766.830.9782I-LBP(Kumar等人, 2021年)4.03± 1.30.99016.08± 1.30.97986.270.9792注意(Luo等人, 2021年)3.91± 1.30.99095.86± 0.70.98135.930.9834EN-IR(Vyas,2022)3.75± 1.40.99135.06± 0.50.98785.490.9869提出3.08± 1.60.99484.12± 0.4个0.99084.920.9901S. Ramachandra和S. Ramachandran沙特国王大学学报7972图13岁数据集的ROC比较(a)UBIPr数据集(b)CASIA-Iris数据集(c)AR数据集。表2Rank-1和Rank-5识别精度的比较方案UBIPrCASIA-IrisAR秩-1秩-5秩-1秩-5秩-1秩-5ImageNet(Krizhevsky等人, 2012年)84.88 ± 2.596.01 ± 1.895.00 ± 1.896.98 ± 2.593.5996.75虹膜识别(Gangwar和Joshi,2016)90.30 ± 1.297.41 ± 1.195.95 ± 2.198.15 ± 0.695.2498.38聚类(Schroff等人,( 2015年)90.24 ± 1.497.36 ± 0.496.09 ± 2.198.10 ± 0.494.1997.75LCNN(Wu等人, 2018年)90.28 ± 1.797.18 ± 0.796.01 ± 2.097.85 ± 0.994.2797.52多级(Soleymani等人, 2018年)90.75 ± 1.097.44 ± 0.395.81 ± 1.997.67 ± 1.096.0798.71VGG16(Parkhi等人,(2015年)90.24 ± 1.497.09 ± 1.195.88 ± 0.197.99 ± 0.594.297.61OC-LBCP(Tiong等人, 2019年度)90.28 ± 1.297.39 ± 0.495.92 ± 1.398.12 ± 0.495.3297.8I-LBP(Kumar等人, 2021年)90.81 ± 1.397.53 ± 0.796.12 ± 1.598.01 ± 0.595.8697.93注意(Luo等人, 2021年)91.02 ± 1.197.89 ± 0.896.32 ± 1.298.32 ± 0.696.1798.01EN-IR(Vyas,2022)91.26 ± 1.298.03 ± 0.796.71 ± 1.398.46 ± 0.796.3698.17提出92.32 ± 1.298.73 ± 0.897.41 ± 1.198.95 ± 0.897.8799.12S. Ramachandra和S. Ramachandran沙特国王大学学报7973见图14。 rank-1和rank-5识别精度的性能比较。识别方法优于传统的方案。然而,该方法的缺点是可以通过检测眼角点来提取特征。因此,如果没有检测到眼角点,则难以提取特征。该算法可用于实时应用,如用于检测罪犯面部的视频监控和生物测量系统。下一节显示了所提出的工作的结论。5. 结论提出了一种从4个不同区域提取眼周特征该区域包括眉毛、上眼褶、下眼褶和眼角区域。传统的HOG和KAZE特征提取算法用于提取眉毛、上眼睑和眼角区域的特征。通过估计眉毛上下边界的高度和宽度特征来提取眉毛形状特征。提出了一种基于子图像的邻域梯度特征提取方法,用于提取下眼睑区域的特征最后,使用朴素贝叶斯分类算法训练提取性能评估使用诸如rank-1、rank-5识别准确性、EER和AUC等指标在诸如UBIPr、CASIA-iris和AR等数据集上 进 行 。 UBIPr 、 CASIA-iris 和 AR 数 据 集 的 AUC 分 别 估 计 为0.9948、0.9908和0.9901数据集UBIPr、CASIA-Iris距离数据集和AR数据集的rank-1识别精度估计为92.32%、97.41%和97.87%。实验结果表明,本文提出的眼周识别算法优于传统的识别算法,能够最好地适用于只包含眼周区域的部分人脸的识别。所提出的方法中存在的挑战是,可以通过检测眼角点来提取特征。因此,如果眼角点没有被正确
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功