没有合适的资源?快使用搜索试试~ 我知道了~
基于LDN和DGLTP描述符的人脸表情识别方法
沙特国王大学学报基于LDN和主梯度局部三值模式描述子的人脸表情识别I. Michael Revina,W.R.萨姆·伊曼纽尔计算机科学系,新墨西哥州印度泰米尔纳德邦Tirunelveli 627012,Abishekapatti,Manonmaniam Sunadaranar大学附属基督教学院阿提奇莱因福奥文章历史记录:2017年12月18日收到2018年2月8日修订2018年3月27日接受在线发售2018年保留字:描述符面部表情高斯面具直方图支持向量机A B S T R A C T人脸表情识别(FER)是人机交互中一个极具吸引力和挑战性的问题面部表情是人类传达情感和意图的最主要和最常用的手段之一本文提出了一种改进的基于改进判决的非对称裁剪中值滤波器(EMDBUffix)方法,用于去 除 人 脸 图 像 中 的 噪 声 像 素 。 此 外 , 本 文 提 出 了 局 部 方 向 数 ( LDN ) 模 式 , 主 导 梯 度 局 部 三 值 模 式(DGLTP)描述符的特征提取和支持向量机(SVM)分类器进行分类。使用LDN和DGLTP描述子从人脸图像中提取直方图特征。实验结果表明,该方法在两个公开的人脸表情数据集JAFFE和CK上的准确率提高了88%。©2018作者制作和主办:Elsevier B.V.代表沙特国王大学这是一篇基于CC BY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。1. 介绍表情是一种现实而有力的人与人之间进行交流的方式。人类通过身体和面部信号、反应变化和语调来传达他们的表情。在一个控制系统中,将人的反应变化、表情转化为有价值的准则,采用的方案就是一致的表情观测。人类并不总是通过反应和语言来表达自己,因此表情识别是一项艰巨的任务。人类FER是一个多学科领域,包括语音分析,机器学习,心理学和计算机视觉。面部表情在人机交互(HCI)中起着基本作用,并且被测量为语音信号之后的一对一通信的主导(Qayyum等人, 2017年)。面部神经给运动的军团肌肉贴在面部皮肤是面部表情。很明显,它们擅长做出不同的面部表情,比如生气,悲伤,高兴,*通讯作者。电 子 邮 件 地 址 : michaelrevina09@gmail.com ( I.M.Revina ) , sam_emma-nuel@nmcc.ac.in(W.R. Sam Emmanuel)。沙特国王大学负责同行审查制作和主办:Elsevier恐惧、厌恶、惊讶(De la Torre and Cohn,2011)。目前,FER系统广泛用于各种研究领域,例如笔记本电脑游戏、精神障碍检测、驾驶员疲劳检测人机界面、电子学习和其他新兴应用(Chang,2017)。一般来说,面部表情识别分为三个步骤。第一步是人脸获取,它包含人脸区域检测和定位。第二步是人脸数据提取,这里提取基于外观和几何特征。第三步是表情识别,对表情进行分类。分类是FER的重要组成部分,可能使用神经网络分类器、模糊分类器等,(Tian等人,2011年)。人脸跟踪和人脸识别领域在现代得到了很大的提高和扩展。常用的人脸特征描述方法分为两类。第一种方法是从整幅人脸图像中提取特征。第二组遵循局部方式,这里的特征是从面部图像的部分中获得的(Jameel等人,2016; Yang andBhanu,2012).Uddin等人提出了一种FER系统,该系统使用称为局部方向位置模式(LDPP)的新特征提取方法。采用LDPP、主成分分析(PCA)和广义判别分析(GDA)提取纹理特征接下来,通过使用深度信念网络(DBN)(Uddin等人,2017年)。Sajjad等人引入了方向直方图(HOG)和均匀局部三值算子(U-LTP)的混合来提取外观、形状、https://doi.org/10.1016/j.jksuci.2018.03.0151319-1578/©2018作者。制作和主办:Elsevier B.V.代表沙特国王大学这是一篇基于CC BY-NC-ND许可证的开放获取文章(http://creativecommons.org/licenses/by-nc-nd/4.0/)。可在ScienceDirect上获得目录列表沙特国王大学学报杂志首页:www.sciencedirect.comI.M. Revina,W.R.Sam Emmanuel/ Journal of King Saud University393和整个面部图像的纹理特征。这些特征被组合成单个特征向量,并使用多类SVM分类器进行分类(Sajjad等人, 2017年)。Kamarol等人提出了基于加权投票方案的FER和强度估计。特征提取是通过主动外观模型(AAM)实现的,提取了几何特征.通过使用隐马尔可夫模型(HMM)(Kamarol等人,2017年)。Mistry等人提出的面部情感识别系统包括特征提取、特征优化和情感识别三个主要阶段。改进的局部二值模式(LBP)描述符用于特征提取,产生主要的特定面部表示。通过粒子群优化(PSO)算法实现特征优化,并且通过不同的分类器执行分类(Mistry等人, 2017年)。Baddar等人提出了具有两个目标函数的Siamese网络,用于具有一致照明的FER。第一个目标函数是对表达式类分类错误的自觉性。第二个目标函数对卷积神经网络(CNN)之间的变化负责,用于特征最小化(Baddar等人, 2017年)。Nazir等人提出了基于HOG变换特征的FER从人脸图像中提取HOG特征,并使用存储高方差特征的离散余弦变换(DCT)对其进行变换。RF(随机森林)、KNN(K最近邻)和顺序最小优化(SMO)分类器用于对这些特征进行分类(Nazir等人,2017年)。Muqeet等人介绍了LBP和方向小波变换(DIWT)的组合用于面部特征提取。基于多分辨率分析的描述符由LBP直方图特征形成,其中这些特征是从DIWT子带中提取的(Abdul和Holambe,2017)。Meena等人提出了可以用图形信号处理(GSP)执行的改进的FER。在这里,离散小波变换(DWT)和HOG特征的混合提取,可以减少与GSP的帮助和KNN分类器用于分类这些减少的特征(Meena等人, 2017年)。Arshid建议使用多级二进制模式(MSBP)来生成16位编码.两个场景的实验进行,如整体和区域为基础。与基于区域的场景相比,整体的表达识别性能更好(Arshid等人,2017年)(多阶段二进制)。本文提出了一种新的工作,利用现有的描述符LDN与新的描述符DGLTP 提 取 纹 理 特 征 , 有 效 的 FER 。 本 文 的 主 要 贡 献 是 采 用EMDBUILD方法进行降噪,采用LDN和DGLTP描述子提取无噪人脸图像的纹理特征,采用SVM进行表情识别。本文其余部分的结构如下。第2节简要介绍了拟议的方法和工作。第3节说明了所提出的方法的实验结果和讨论。第四节说明了所提出的方法的结论.2. 该方法图1示出了FER系统的总体框架,其包括使用EMDBUILD方法的降噪、两个特征描述符(诸如LDN和GLTP)以及SVM分类。这些方法的详细描述在下面的章节中给出。2.1. 使用EMDBUILD进行EMDBUILD用于从图像中去除盐和胡椒噪声。读取面部图像,然后检查每个像素是否存在噪声像素。对有噪声的像素点进行EMDBUILD处理,除噪声像素点外的其他像素点不变。针对两种情况处理噪声像素在第一种情况下,处理像素是有噪声的,并且其他像素值是0噪声像素被替换为公认的表达图1.一、人脸表情识别系统框架.数据库图像基于LDN和GLTP描述符的直方图DGLTP描述符LDN描述符EMDBUYER降噪基于块的DGLTP直方图直方图特征基于块的LDN直方图输入图像SVM分类器394I.M. Revina,W.R.Sam Emmanuel/ Journal of King Saud University22>X0;90--090处理像素的平均值在第二种情况下,处理像素是椒盐噪声像素,并且相邻像素中的一些像素然后找到处理像素的中值,用该值替换噪声像素2.2. 局部方向数模式描述符LDN是一种人脸描述器,它通过计算局部邻域的方向LDN主要是一种纹理描述符,它编码了面部纹理的结构信息和强度变化。因此,计算的边缘响应,在八个不同的方向使用高斯掩模的邻域。然后从所有方向中选择峰值正方向和负方向,以生成具有各个方向的相关结构模式的用于面部特征提取的LDN代码形成示于图二. LDN形成的第一步是高斯边缘响应生成,它们是通过高斯掩模完成的这些高斯掩模被应用于面部图像,并且它们被卷积以产生边缘响应图像。然后,从边缘响应图像中选择显著方向数,方向为正方向和负方向。它计算在该地区的边缘响应,在八个不同的-2.3. 主梯度局部三值模式描述符主导梯度局部三值模式(DGLTP)是一种基于局部外观的人脸纹理特征。DGLTP计算邻域的方向幅度,并将这些值量化为三个不同的偏置水平,以对图像内的面部表情的局部纹理进行编码。随后的模式被利用作为面部特征描述符。DGLTP利用更鲁棒的照明变化和噪声。DGLTP码的形成如图所示。3 .第三章。首先,对源图像进行0°和90°高斯掩模,得到两幅方向图。高斯掩模用两个方向和M0和M90卷积源图像获得了的EQ。(2)描述了源图像的每个像素的方向幅度(M0,90)M²平方米 þMÞ ð2Þ然后,在整个方向幅度图像的邻域像素的枢轴值区域内应用阈值(±T),以区分普通人脸区域和极端纹理人脸区域。8>-1MnMp-T使用高斯遮罩输入方向。边缘响应在较高的正或负的出现上不是均匀分布的SDGLTP--0Mp-T6Mn6Mp-T; 23M p-T:1Mn>MpT积极价值。符号信息可以用于对承诺进行编码。nent区。三位MSB值可以被分配为正MSB值。其中Mp是邻域的枢轴值,SDGLTP 是一种number.可以为负数分配三位LSB值。因此,LDN可以在等式中定义。(1)、ldncpx;cpy1;cpy1其中(cpx,cpy)是邻域的中间像素,prcpx ,cpy是最大正响应,nrcpx,cpy是最小负响应。接着,从LDN编码图像形成LDN直方图,其包括不同的特征,如点、边缘、角点和其他局部纹理面部特征。直方图不对位置信息进行编码,而仅对发生信息进行编码因此,人脸图像被划分为小部分,并提取每个部分的直方图将所有直方图连接起来,形成LDN直方图.输入图像是周围邻居的量化值,Mi是方向幅度,并且在等式2中描述。(三)、在Mp-T和Mp+ T之间下降的值被量化为0。 高于Mp + T的值被量化为+1,低于Mp T的值被量化为1。DGLTP是通过连接包含高维特征向量的每个邻域的结果值而形成的因此,每个DGLTP代码分为负和正部分。这些阴性(阴性GLTP)和阳性(阳性GLTP)切片通过使用以下等式获得:(4)及(5)7NegativeDGLTP¼SativeSDGLTPx×2x4x¼0最小负索引图像最大正索引图像数高斯8边掩模卷积高斯掩模90 μm高斯掩码0LDN编码图像图二. 局部方向数模式的形成。图三. 主导梯度局部三元图案形成。输入图像局部三值图像形成正局部差分图像阳性和阴性的负局部差分图像I.M. Revina,W.R.Sam Emmanuel/ Journal of King Saud University3957×.Σ公司简介.- 是的¨¨ΣSpositiveSDGLTPx×2一个新的RBF神经网络1/1PositiveXxx¼0. XYiiij!S负值和S正值为0和1,在正段SDGLTP值大于0则S正值为1,否则为0,可能在负段SDGLTP值小于0则S负值为1,否则为0。然后计算正截面和负截面的直方图特征。在此之前,每个正、负图像被分成a、b区域。直方图计算每个部分使用方程。(六)其中KRBFxi;xj是核函数,ai是对偶优化问题的拉格朗日乘数,z是阈值参数。训练样本xii大于0是支持向量。这些支持向量被超平面最大化。在本文中,分类使用的支持向量机的基础上,一个反对休息的方法。这种一对一的方法包括为每个类构造一个SVM,一B从所有其余类别的样本中选出一个类别的样本。他sXa XBFPostiv e Negativ eR Cs通常,未知模式的分类是根据Positive=NegativeDGLTPðð =R¼1C¼ 1DGLTP®;;ð6Þ所有SVM的最大输出许多核函数,如线性、多项式、径向基函数(RBF)等。. 用于SVM。在这种方法中使用RBF核其中A和B是DGLTP编码图像的宽度和高度R和C表示行和列,s是DGLTP代码值。在最后,同时连接每个区域的正直方图和负直方图以形成特征向量。2.4. 支持向量机分类支持向量机(SVM)是一种可用于表情识别的有监督机器它将标记的训练数据完全映射到更高的维度特征空间并在数据之间建立线性可分的最优超平面。样本类间的分离间隔最大则超平面为最优.使用最优超平面对样本进行分类给定一组训练样本S ={(x(i),y(i)),i = 1.2,. . ,Y},其中x(i)2RP和y(i)2 {-1,1},并且测试样本被分类为,用SVM进行分类RBF核描述在Eq.(八)KRBFxi;xjexp-cxi-xj8其中xi;xj是两个样本,c是内核参数。2.5. 该算法所提出的工作的总体框架由以下算法说明。3. 实验结果为了进 行实验,考虑 了日本女性面 部表情( JAFFE)数据 库(JAFFE,2017),其中包含213张女性面部表情图像每张图像的分辨率为256×256像素,每个像素的图像数量几乎相同ð5Þfx符号ð7Þ396I.M. Revina,W.R.Sam Emmanuel/ Journal of King Saud University表达的范畴。JAFFE数据库的样本图像如图所示。 四、CK 数 据 库 ( Cohn-KanadeAU-Coded Expression Database ,2017)包含97个受试者的486个序列。每个序列包含从开始(中性帧)到峰值表达的图像。峰值帧被可靠地编码为FAU(Facial ActionUnits)的FACS(Facial ActionCK数据库的样本图像如图所示。五、所提出的FER-LDN-DGLTP方法的性能与其他方法的性能是一致的,并且这些方法是方向性直方图(FER-HOG)(Dahmane 和Meunier,2014)、局部二进制模式(FER-LBP)(Happy等人,2015 ) 、 高 斯 拉 普 拉 斯 ( Laplace of Gaussian, Hsieh 和 Hsih ,2016)和K-L变换扩展局部二进制模式(Guo等人, 2016年)。匹配识别分析如图所示。 其中x轴表示数据库中的图像数量,y轴表示匹配表达计数。FER-HOG方法识别2、5、8、12幅图像,FER-LBP方法识别2、6、9、13幅图像图像,FER-K方法识别3,7,9,13个图像,FER-K-ELBP方法识别3、7、10、14幅四种表情的图像分别从4、8、12、16幅图像中提取。提出的FER-LDN-DGLTP方法分别从4,8,12,16幅图像中识别出4,8,11,15幅具有四种表情的图像。使用现有的和建议的FER-LDN-DGLTP的人脸表情识别的准确性如图所示。7 .第一次会议。在该图中,x轴表示数据库中的图像数量,y轴表示面部表情识别率的百分比。FER-HOG法分别为86.63、85.97,FER-LBP法分别为87.25、86.92,FER-LBP法分别为86.56,FER-K-ELBP 方 法 对 12 幅 、 16 幅 图 像 的 准 确 率 分 别 为 87.75% 、87.24%。本文提出的FER-LDN- DGLTP方法对12幅、16幅人脸表情图像的识别率分别为88.67%、88.20%这清楚地表明,所提出的FER-LDN-DGLTP方法给出了更好的精度比其他现有的方法。表1报告了诸如FER-HOG、FER-LBP、FER-KBP、FER-K-ELBP和建议的FER-LDN-DGLTP的不同描述符的面部表情识别准确率。SVM分类器与这些描述符一起使用,并且所使用的数据库是CK+、CK、JAFFE、GEMEP-FERA(GEneva多模态情感描绘-面部表情识别和分析)。FER-HOG、FER-LBP、FER-SVM和FER-K-ElBP结合SVM的方法的识别率为86.29%,准确率分别为86.84%、87.52%和87.75%。本文提出的方法FER-LDN-DGLTP结合SVM分类器的分类准确率为88.63%。由此可见,该方法比现有方法具有更好的性能。表2报告了JAFFE和CK数据库中不同表达的识别分析。识别了厌恶、微笑、悲伤和惊讶四种表情并进行了分析愤怒厌恶恐惧快乐悲伤惊喜见图4。 来自JAFFE数据库的示例图像。89.00%百分之八十八点五88.00%87.50%87.00%86.50%86.00%百分之八十五点五百分之八十五84.50%12FER-HOGFER-LBPFER-BELFER-K-ELBP提出16数据库映像愤怒厌恶恐惧快乐悲伤惊喜见图7。 JAFFE人脸表情识别率分析。表1人脸表情识别正确率分析。方法数据库处理准确率(%)图五. CK数据库中的示例图像。FER-HOG + SVM CK+AFFEFER-LBP + SVM JAFFEGEMEP-FERA86.2986.84FER-SVM +SVM CK 87.52FER-K-ELBP +SVM CKJAFFE 87.7514FER-HOG1210FER-LBP8FER-BELLE6FER-K-ELBP42个拟拟议的JAFFECK表2使用JAFFE和CK数据库进行表达识别分析表达准确率(%)88.6304 8 12 16数据库映像提议的FER-HOGFER-LBP厌恶82.7 84.5 83.2 84.9 86.9微笑84.6 86.3 85.4 87.1 88.4悲伤82.1 83.7 82.8 84.3 85.9惊喜85.2 86.5 85.9 87.4 88.7见图6。 JAFFE数据库的匹配识别分析。匹配表达式外汇储备率(百分比)16I.M. Revina,W.R.Sam Emmanuel/ Journal of King Saud University397使用真阳性和假阳性值。使用FER-HOG、FER-LBP、FER-K-ELBP和Proposed方法的厌恶表达给出了82.7%、84.5%、83.2%、84.9%和86.9%的准确率。使用FER-HOG、FER-LBP、FER-KBP、FER-K-ELBP和提出的方法 ,微 笑表 情的 准 确率 分别 为84.6% 、86.3% 、 85.4% 、 87.1% 和88.4%。SAD表达式使用FER-HOG、FER-LBP、FER-K-ELBP和Proposed方法给出82.1、83.7、82.8、84.3和85.9%的 准 确 度,而Surprise 表 达 式 使 用 FER-HOG 、 FER-LBP 、 FER-K-ELBP 和Proposed方法给出85.2、86.5、85.9、87.4和88.7%的准确度。表3显示了在JAFFE和CK数据集中使用LDN和GLTP以及所提出的方法对四类表情进行人脸表情识别的混淆矩阵。厌恶和悲伤的表情被严重错误地归类了。在4级测试中,误分类降低了面部表情识别的总体准确性。面部表情识别时间分析如图8所示。x轴表示数据库中的图像数量,y轴表示FER所用的时间(秒)。FER-HOG方法分别取0.2664、0.6396、1.2168、2.3832、FER-LBP法分别取0.2184、0.546、1.0476、1.6516,FER-K-ELBP法分别取0.275、0.5983、1.1902、2.0673对于数据中的4、8、12、16个图像,需要0.231、0.4718、1.1361、1.782 s表3用该方法识别四类人脸表情的混淆矩阵x厌恶微笑悲伤惊喜厌恶90. 4 0 9. 6 0微笑1.9 98.1 0 0悲伤10.9 0 89.1 0惊喜0 1.3 5.6 93.1基地分别。FER-LDN-DGLTP方法对数据库中4、8、12、16幅图像分别需要0.298、0.7291、1.4123、2.524 s。查询处理的平均时间分析如图9所示。这里,x轴表示描述符,y轴表示以毫秒为单位的平均时间。对于查询图像处理,FER-HOG方法花费226 ms,FER-LBP花费179 ms。对于查询图像处理,FER-K-ELBP方法花费215和FER-K-ELBP方法花费234 ms。所提出的FER-LDN-DGLTP方法需要260 ms的查询图像处理。所提出的方法FER-LDN-DGLTP比现有的方法花费更少的毫秒,它给出了良好的性能。4. 结论本文采用EMDBUILD方法去除人脸图像中的噪声。提出的人脸表情识别技术对不同类型的人脸图像具有一定的包容性。Local Direc-tional Number使用方向信息来编码来自面部纹理的不同图案,该方向信息对噪声比强度更稳定。主导梯度局部三值模式(DGLTP)方法通过计算图像内局部邻域的梯度幅度来编码面部表情的局部纹理。DGLTP使用更强大的梯度幅度值,而不是灰度级与三级编码方案,以区分平滑和高度纹理化的面部区域。所提出的方法是强大的对噪声的脸。通过匹配识别分析、人脸表情识别分析、FER时间分析和平均时间分析表明,该方法优于现有方法。在未来,人脸表情识别率可以通过另一种人脸描述符使用双向直方图快速表示(FRDOH)来提高。使用卷积神经网络(CNN)的另一种相似性方法可以与现有的支持向量机分类器相结合。32.521.510.503002504 8 12 16数据库映像图8.第八条。使用JAFFE数据库进行FER时间分析FER-HOGFER-LBPFER-BELFER-K-ELBP提出引用Abdul,M.,Holambe,R.S.,2017.基于方向小波变换的局部二值模式在表情和姿态不 变 人 脸 识 别 中 的 应 用 。 Comput. 信 息 学 https://doi.org/10.1016/j 应 用aci.2017.11.002网站。Arshid,S.,侯赛因,A.,Munir,A.,Nawaz,A.,Aziz,S.,2017.真实世界中人脸表情识别的多阶段二元模式。群集计算网址:http://doi.org/10.1007/s10586-017-0832-5巴达尔,W.J.,金博士,Ro,Y.M.,2017年。 学习特征鲁棒图像变化与暹罗网络面部表情识别189-200。网址://doi.电话:+86-319 -51811-4Chang , H.T.Y. , 2017 年 。 结 合 多 特 征 与 支 持 向 量 机 的 人 脸 表 情 识 别 软 计 算https://doi.org/10.1007/s00500-017-2634-3.Dahmane,M., Meunier,J., 2014. 基于原型的建模。 IEEE Trans.多次。16,1574De la Torre,F.,科恩,J.F.,2011年。面部表情分析手面部识别。247-275. https://doi.org/10.1007/978-0-85729-997-0_19网站。郭,M.,Hou,X.,妈妈,Y.,2016年。基于KLT协方差矩阵变换的ELBP人脸表情识别https://doi.org/10.1007/s11042-016-3282-.第九届全国人民代表大会200150100500描述符查询处理的平均耗时快乐,S.L.,成员,S.,Routray,A.,2015.利用脸部显著区块特征进行自动脸部表情辨识。IEEETrans.Affect.Comput.6,1-12。https://doi.org/10.1109/TAFFC.2014.2386334网站。Hsieh,C.,Hsih,M.,2016.有效的语义特征的面部表情识别使用SVM,页。6663-6682. https://doi.org/10.1007/s11042-015- 2598-1.贾米尔河,辛格哈尔,A.,班萨尔,A.,2016年。人脸表情识别技术的综合研究2016第六届云系统大数据工程国际会议pp.478-483.https://doi.org/10.1109/CONFLUENCE.2016.7508167的网站。Kamarol,S.K.A.,Jaward,M.H.,Kälviäinen,H.,J.帕克基宁Parthiban河,2017年。基于图像序列加权投票的联合表情识别和强度估计。模式识别。Lett. 92,25-32。https://doi.org/10.1016/j.patrec.2017.04.003.Meena,H.K.,夏尔马,K.K. Joshi,S. D.,2017.使用图形信号处理改进的面部表情识别53,pp。十一比十二https://doi.org/10.1049/见图9。 利用JAFFE和CK数据库进行平均时间分析。el.2017.0420.FER所用时间(),单位为秒)平均时间(毫秒)FER-HOGFER-LBPFER-BERGAT提出FER-K-ELBP398I.M. Revina,W.R.Sam Emmanuel/ Journal of King Saud UniversityMistry,K.,张,L.,南卡罗来纳州尼欧市Lim,C.P.,菲尔丁,B.,2017.一种基于微遗传算法的PSO特征选择方法用于智能人脸情感识别。IEEE Trans. Cybern. 47,1496-1509。https://doi.org/10.1109/TCYB.2016.2549639网站。Nazir,M.,简,Z.,Sajjad,M.,2017年。基于方向梯度直方图变换特征的人脸表情识别群集计算https://doi.org/10.1007/s10586-017-0921-5.Qayyum,H.,Majid,M.,Anwar,S. M.,Khan,B.,2017年。2017年转型特色Sajjad,M.,Shah,A.,简,Z.,Shah,S.I.,Baik,S.W.,马哈茂德岛2017.面向情感知识发现的基于面部外观和纹理特征的鲁棒面部表情识别框架。群集计算1-19. 网址:http://doi.org/10.1007/s10586-017-0935-z田,Y.,Kanade,T.,科恩,J.F.,2011.人脸识别手册。https://doi.org//978-0-85729-932-1.乌丁,M.Z.,哈桑,M.M.,Almogren,A.,Alamri,A.,Alrubaian,M.,Fortino,G.,2017年。基于局部方向鲁棒特征的面部表情识别深层信仰网络IEEEAccess.5,4525-4536。https://doi.org/10.1109/ACCESS.2017.2676238.杨,S.,Bhanu,B.,2012.使用情绪化身图像理解视频中的离散面部表情。IEEE Trans.Syst.ManCybern.B部分Cybern。42,980https://doi.org/10.1109/TSMCB.2012.2192269网站。Web引用日本女性面部表情(JAFFE)数据库,2017年。(1917年12月18日查阅)。Cohn-Kanade AU编码表达数据库,2017年。(2017年12月18日查阅)。~
下载后可阅读完整内容,剩余1页未读,立即下载
![caj](https://img-home.csdnimg.cn/images/20210720083646.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![docx](https://img-home.csdnimg.cn/images/20210720083331.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 利用迪杰斯特拉算法的全国交通咨询系统设计与实现
- 全国交通咨询系统C++实现源码解析
- DFT与FFT应用:信号频谱分析实验
- MATLAB图论算法实现:最小费用最大流
- MATLAB常用命令完全指南
- 共创智慧灯杆数据运营公司——抢占5G市场
- 中山农情统计分析系统项目实施与管理策略
- XX省中小学智慧校园建设实施方案
- 中山农情统计分析系统项目实施方案
- MATLAB函数详解:从Text到Size的实用指南
- 考虑速度与加速度限制的工业机器人轨迹规划与实时补偿算法
- Matlab进行统计回归分析:从单因素到双因素方差分析
- 智慧灯杆数据运营公司策划书:抢占5G市场,打造智慧城市新载体
- Photoshop基础与色彩知识:信息时代的PS认证考试全攻略
- Photoshop技能测试:核心概念与操作
- Photoshop试题与答案详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)