没有合适的资源?快使用搜索试试~ 我知道了~
基于视频的三维人脸重建欺骗检测
基于视频的二维到三维人脸重建的欺骗检测明湖Ngo1,4BurakMandira2SelimFratYlmaz2WardHeij1,3Sezer Karaoglu1,4Henri Bouma3Hamdi Dibeklioglu2Theo Gevers1,41阿姆斯特丹大学2Bilkent University3 TNO4 3DUniversum{l.m.ngo,th.gevers} @ uva.nl,{burak.mandira,firat.yilmaz} @ ug.bilkent.edu.tr{ward.heij,henri.bouma} @ tno.nl,s. 3duniversum.com,dibeklioglu@cs.bilkent.edu.tr摘要谎言和欺骗是社会中常见的现象,无论是在我们的私人生活还是职业生活中。然而,人类在精确的欺骗检测方面是出了名的糟糕.根据文献,人类区分谎言和真实陈述的准确率平均为54%, 换句话说,它比随机猜测稍好。虽然人们对这一问题并不太关心,但在诸如系列犯罪的审讯和法庭案件中的证词评估等高风险情况下,准确的欺骗检测方法是非常可取的。为了实现一个可靠的,隐蔽的,和非侵入性的欺骗检测,我们提出了一种新的方法,联合提取可靠的低和高层次的面部特征,即,3D面部几何形状,皮肤反射率,表情,头部姿势,和场景照明的视频序列。然后使用递归神经网络对这些我们评估所提出的方法在真实生活审判(RLT)数据集,其中包含高风险的欺骗性和诚实的视频记录在法庭上。我们的结果表明,所提出的方法(与72。8%)提高了技术水平,并优于手动编码的面部属性(67。6%)。1. 介绍欺骗行为在日常生活中经常出现,然而,识别这种行为或谎言对人类来说并不是一件容易的事情。平均而言,人们能够正确分类只有47%的谎言和61%的真实陈述[5]。因此,可靠的欺骗检测方法是一个重要的需求,特别是高风险的情况下,如法庭案件,和嫌疑人/证人的进一步调查询问。然而,普遍存在的测谎仪,最常见的测谎机制,已被证明是不可靠的[12]。侵入性方法,如PET(正电子发射到-基于磁共振成像(MRI)和功能磁共振成像(fMRI)的方法执行得更好,但是它们在需要紧凑性或便携性的许多情况下既不完全可靠也不实用此外,这种机制的侵入性使它们很容易被熟练的骗子欺骗[12]。因此,欺骗检测需要非侵入性和隐蔽的方法进行准确的检测。非侵入性欺骗检测的困难在于外部线索的微弱性,因为大量工作表明谎言在行为中几乎不明显[17]。随着计算机视觉技术的发展以及欺骗行为视频的出现,人们对基于视觉模式的欺骗检测的研究兴趣越来越大这种野心背后的驱动机制是欺骗行为线索的(潜意识)泄漏[17]。这些提示通常很弱,非常快或主观,使它们难以被人类解释。最近关于自动欺骗检测的研究[23]利用了不同的非言语模式,例如面部动作/表情、头部姿势/运动、凝视、手势,甚至是分析中的声音特征[23,2]。相比之下,我们的工作只关注面部线索(包括头部姿势/运动),但提供了更好的准确性。在文献[23]中使用的高级视觉特征,例如面部动作单元,由于恶劣的环境条件(即照明,视点,遮挡等)而容易出现错误。因此,这样的特征可以在分析中引入显著量的噪声。在本文中,为了应对这些问题,我们建议利用人脸重建,以获得一个更可靠的欺骗检测有效的低级别表示。人脸重建的目的是将人脸图像分解为三维人脸几何、表情、皮肤反射率、头部姿态和光照参数等组成部分,这些组成部分都虽然照明参数听起来与此任务中使用的无关,但与几何形状结合,它揭示了与表情相关的皮肤变形的微妙此外,在我们的方法中,这些参数的预测受到约束1arXiv:1812.10558v1 [cs.CV] 2018年12通过依赖于面部线索、头部姿势和照明的联合参数建模的图像形成模型。因此,它最大限度地减少了不同环境条件可能产生的负面影响。一旦这些成分被提取出来,它们就会被馈送到一个递归神经网络中,以模拟视频中欺骗性和诚实行为的时间特征。尽管如此,成功的分解已经成为许多与面部相关的计算机视觉任务(例如,面部识别、情绪表达识别、头部姿势估计等),本文是第一个将人脸重建技术应用于欺骗检测的研究。此外,我们提出了一个完全无监督的端到端的深度架构,用于从视频中重建人脸(包括3D人脸几何形状,表达,反射率,头部姿势和照明)。我们的结果表明,所提出的用于欺骗检测的新方法改进了现有技术,并且优于使用手动注释的面部属性(例如,面部动作/表情、凝视和头部移动)来执行该任务。2. 相关工作2.1. 欺骗检测在通过非语言线索进行欺骗检测的基础上,存在泄漏假设,该假设指出-可观察线索可以分为生理线索、肢体语言线索和面部线索。欺骗等不可分割的结构的问题之一是,这些线索从高度客观的(音高)到高度主观的测量(面部愉悦度)。因此,本节的目的是提供一个概述的客观,非语言的线索是相关的范围内使用视觉特征的欺骗检测。关于面部线索,已经确定了许多与欺骗相关的信号,例如嘴唇按压[8],微笑和瞳孔扩张以及面部僵硬[24]。然而,这些研究经常发现相互矛盾的结果[6].此外,性能高度依赖于用于训练和验证的数据,某些数据集明显比其他数据集更容易[31]。其次,谎言被引出的环境是有影响力的:多项研究表明,欺骗性线索随着认知负荷的增加而增加[30]。因此,最终应用和训练数据在数据记录期间应具有可比的认知负荷微表情是另一个可行的信息来源[32],尽管其他研究表明只有少数人在撒谎时会表现出微表情[10]。面部动作单位(AU)也被发现是欺骗检测的信息[23]。Morales等人提出了一种最新的自动欺骗检测方法。[23]第10段。该方法融合了来自视听模态的信息,其中使用Open Face [3]提取了408种线索形式的视觉特征,包括凝视、方向和FACS信息,然后与言语和声学特征融合。融合是通过统计功能向量的级联来实现的,然后使用随机森林和决策树进行欺骗分类。随后,[25]为他们引入的Real-Life Trial数据集提供了一种基线方法,该数据集使用随机森林和决策树对手动编码的视觉特征(如表情,头部运动和手势)进行建模,并将其与语音传输结合在一起。2.2. 单眼人脸重建图像分量的分解需要反转复杂的真实世界图像形成过程。通过反转图像形成的重建是一个不适定问题,因为无限数量的组合可以产生相同的2D图像[4]。一般来说,我们可以将人脸重建方法分为两组,即迭代[4,27,14,28]和基于深度学习的[26]。迭代方法尝试通过以迭代(合成分析)方式最小化投影(重建面部)和原始图像之间的误差来优化参数[4]。能量函数大多是非凸的。良好的拟合只能通过接近全局最优值的初始化来获得,这只能在图像捕获期间通过某种程度的控制来实现。由于这些方法是计算昂贵的,因此在本文中不是优选从单个单目图像重建面部的基于深度学习的方法通常使用数据增强技术来回归预测以接近地面实况[18,15],或者应用类似的合成分析方法来使用物理上合理的图像形成模型训练神经网络[26,15]。这些方法为某些任务产生足够的重建质量,然而,它们牺牲细节,以便易于处理具有挑战性的、无约束的图像。由于这样的方法不能避免表情信息在3D面部几何结构中泄漏,因此在捕获表情时可能存在信息丢失。为了可靠地捕捉面部运动,3D面部几何和表情分量的分离是相当重要的。已经提出了一些工作,以克服这样的是,通过使用RGB视频,而不是单一的单眼图像[27,14,28]。然而,这些工作是基于迭代的方法。卷积神经网络(CNN)架构很少用于基于视频的密集实时人脸重建。在本文中,我们提出了一种新的身份感知,密集和实时的人脸识别CNN管道,它接收RGB视频作为输入。∈∈∈{ }∈∈P∈联系我们ΣΣ∈∈∈∈∈∈∈∈∈→ ∈∈yz轴d`xΣΣ与以前的单目重建方法不同,我们的方法提取完整视频序列的身份相关参数(即3D面部几何形状和反射率),而时间相关参数(即3D面部几何形状和反射率)表达和IL-中性脸和面部表情(Eq.2)的情况。3D面部几何形状被表示为欧几里得空间中的点云X=(x,y,z)TRN×3。照明)。建议的方法8064禁止表情参数泄漏到3D面部X=Aid+<$αiσid,iPid,i+Aexp+<$δiσexp,iPexp,i通过时间约束的几何方法,提高了表情捕捉的准确性。此外,使用递归神经网络(RNN),我们在时间上约束i=1i=1(二)这样我们就可以通过完整的视频来保持表情之间的一致性。3. 方法3.1. 网络架构利用卷积神经网络从 一 组 RGB 人脸图像IiRW×H×3中预测出本征逆绘制参数R257P={α,β,δ,γ,ω,t},(1)其中α=αi,β =βiR80和δ=δiR64是对应于3D面部几何形状的参数,其中γR9×3为场景照明参数,ωSO(3)和tR3为旋转和平移参数。图1显示了我们的面部重建架构的概述。我们的模型由两个具有共享权重的AlexNet [21]骨干组成,一个(Identity CNN)用于提取人的身份3D面部几何形状和反射特征与来自图像集合I1的α、β相关。我和一个-其他(Framewise CNN)从特定帧X提取帧相关的面部特 征 δ、 γ、 ω、 t。 为 了 我 们 的 目 的 , 我 们 使 用AlexNet的所有层,除了最后一个FC8层。这些特征使用递归单元进行融合,100个隐藏参数和没有非线性的全连接层,以在给定一组裁剪面部 的情况下预测单个身份参数集合α、β。IM,以先前时间状态为条件的表达参数δ,照明,旋转和平移参数。Identity CNN之后是100个隐藏参数的递归单元和没有非线性的全连接层,以产生身份参数α,β。来自重现单元的特征与Framewise CNN连接。这个代表之后是另一个100个隐藏的经常性单位其中我们表示Aid,AexpRN×3作为平均值以Pid,i,Pexp,iRN×3作为其主成分,分别按标准差σid,i,σexp,iR排序。使用单独的PCA模型对面部反射进行建模:80B=Atex+βiσtex,iPtex,i(3)i=1式中AtexRN×3为平均面反射率,Ptex,iRN×3为按标准差σ tex,iR排序的主成分。面部变形。我们使用6DoF变换T对场景中的人脸运动进行建模。旋转矩阵R(w):R3R3×3表示为ωR3SO(3),翻译TR3在每个x,y,z方向上是分开的。照明模型。假设面是朗伯表面,使用球谐基函数Hj的前3个频带对照明变化进行建模[29]。第i个顶点xci的强度被定义为顶点x反射率bi和a阴影分量的乘积32ci= biγjHj(R(ω)ni),i∈1. N,(4)j=1其中,是第i个顶点的顶点法线。我们分别为R、G、B通道定义了光照参数γj,共27个参数。基于1-环三角形邻居估计Ver-tex法线三角形拓扑结构是已知的,从脸变形模型。投影模型。通过应用刚性变换T和透视变换T将所获得的3D点云X映射到2D平面,透视变换T被建模为投影VR4×4和视口PR4×4矩阵:den参数和全连接层产生混合形状参数,其他参数只产生全连接层而不产生回流单元3.2. 基于物理的成像X轴yR(ω)t01Tx我知道了。(五)13D面部几何形状和反射率。我们使用多线性PCA模型参数化3D面部几何形状[16]可以通过由齐次坐标d_i来获得u_i、v_i坐标和d_ i。假设焦距|V||F|P∈i,predΣǁi,pred1图1. 体系结构概述。我们的管道由两个具有共享权重的AlexNet组成。一个用于提取身份参数的特征,另一个用于目标帧参数。主干之后是递归层单元和全连接层,以预测语义代码向量。我们使用基于物理的编码器约束代码向量来训练我们的流水线,以便能够产生与输入图像接近的重建。欺骗性预测流水线在测试时使用预测码向量,并单独训练并且主点位于投影屏幕的中间。3.3. 训练损失我们采用Tewari等人的能量最小化策略。[26]第10段。总的来说,我们的损失包含3个主要组成部分:地标损失Eland,顶点光度损失Evert和正则化项Ereg(等式2)。6)。我 们 过 滤 掉 的 顶 点 , 有 助 于 基 于 法 线 方 向 的photometric损失,是这些顶点的数量。统计正则化我们使用Tikhonov正则化[29]来强制预测参数处于合理范围内。80 80 64Ereg=wα<$α2+wβ<$β2+wδ<$δ2(九)L=wlandEland+wvertEvert+Ereg(6)我i=1我i=1我i=1里程碑式的损失。使用来自预测的3D面部模型的地标投影p与地面实况地标lj之间的L2差。总的来说,我们使用=48个地标进行优化,覆盖眉毛,眼角,鼻子,嘴巴和下巴区域。3.4. 模拟欺骗行为一旦获得面部表征,我们将视频分类为欺骗性或诚实。我们采用递归神经网络(RNN)来捕捉帧的面部表征向量之间的时间关系R257每个视频。我们使用损失函数E=1p−lJ土地|F|J王空军j∈F第二章(7)J=(y-y)2(10)3D模型上的第j个界标。顶点光度损失。我们将光度损失定义为顶点强度颜色与原始图像对应颜色之间的L2,1差异[11为了找到图像空间上的强度颜色,我们执行双线性插值。其中yi,actual是视频i的标签,yj是类别j的视频i的预测概率。欺骗行为和诚实行为分别对应于1和0。我们采用128个单元的单层RNN,然后是2个具有S形激活函数的输出神经元。每个输出神经元对应一个类,欺骗或真理。在EVert =1c|i ∈V|i∈V-Xui,vi 2002年,(八)欺骗性预测CNNαβ谎言还是真相?δCNN+γωt+基于物理编码器X'非端对端损失+要素串联X我...IMWFC2FC64 FC33RNN128RNN100FC160系列RNN1002这里我们定义k的带注释的顶点索引j=0i,实际我在评估阶段,对应于具有最大概率的输出神经元的类是最终预测。图2. 来自RLT数据集的视频帧样本。数据集包含不同光照条件下的试验视频,姿势,场景中有多个人。有些视频被严重遮挡,4. 实现细节我们在300 VW [ 9 ]和CelebA数据集[ 22 ]上训练20万次迭代的2D到3D人脸重建网络,使用批量大小为5和Adam优化器[20],学习率为10- 5。 损失权重设置为w vert= 1。九十二岁,w land= 0. 0019 , w α= 2. 9× 10−5 , w β= 4 。93×10−8,w δ= 2。32×10-5300VW包含视频序列,每帧带有注释的68个地标。我们根据地面真实地标上的绑定框以10%的扩展来裁剪面部我们使用dlib [19]处理CelebA进行人脸检测,使用FAN [7]进行地标检测。我们总共收集了来自300VW的94K图像,来自49个视频和来自CelebA的200K图像。对于每个300 VW的视频序列,我们以随机顺序随机选择3个裁剪面作为Identity- CNN的输入。我们以1到5帧的随机步长随机采样3个裁剪面的序列对于CelebA,我们假设每个图像都有1帧视频序列随机翻转图像我们交替训练CelebA和300VW批次的模型。AlexNet主干使用ImageNet上的预训练模型进行初始化。我们将额外的偏移量添加到第0波段SH系数和z平移,以确保初始3D人脸模型具有合理的初始照明,并位于屏幕中间。Basel Face Model 2017 [16]用于3D面部几何、反射和表达。我们取α和β的前80个主成分,δ的前64个主成分。我们实现SO(3)梯度的紧凑形式的基础上Gallego等人的工作。[13 ]第10段。我们的实现是用Tensorflow编写的[1]。我们在NVIDIA GTX 1080上进行了实验我们在真实生活试验(RLT)数据集上训练了10个时期的欺骗建模RNN,使用批量大小为16和Adam优化器[20],学习率为10−3。5. 数据集在这项研究中,我们采用了真实生活试验数据集[25],其中包含121个来自公开的真实生活高风险场景的视频。见图2对于来自数据集的可视它有61个欺骗性和60个真实的试验片段,涉及21名女性和35名男性受试者,年龄在16岁至60岁之间。视频的平均时长约为在构建数据集时,Perez-Rosaset al. [25]对视频实施一些视觉约束,例如被告或证人,在大多数镜头中应清楚地识别他或她的脸,以及一些与我们的背景无关的语音强制。由于技术错误,我们从数据集中丢弃了40个这样的视频:1)面部标志检测失败[19] 2)一些视频没有显示目标主体,而是显示了其他东西,如法庭,同时具有目标主体的声音。因此,使用来自该数据集的81个视频(39个欺骗性的,42个真实的)的子集,其由28个男性和53个女性受试者构建。6. 实验在本节中,我们将详细解释所有进行的实验。在计算准确率、精确率和回忆率时,我们在整个实验中将谎言视为积极的,而将真理视为消极的6.1. 与单眼2D到3D方法的比较我们利用随机选择的多个帧对身份参数α、β进行流水线约束预测。在这个实验中,我们评估了所提出的人脸重建对用于身份估计的帧的选择有多敏感。我们将我们的网络接受随机单目图像与Tewari等人的工作进行比较。其不对识别进行任何调节。评价是在300大众valida-分裂。它包含3个具有不同场景复杂度的视频子集。集合1包含31个视频,集合2包含19个具有困难照明条件的视频,集合3包含14个具有遮挡、极端姿势和表情的视频。结果见表6.1。结果表明,我们的方法产生了更一致的预测相比,Tewari等人的Pendido和形状参数。这表明该方法避免了表达式和几何之间的泄漏。因此,所提出的方法预测更精确的表达和几何形状。集1集合2组3Tewari等人[26](αstd)Tewari等人[26](βstd)0.2400.2990.1910.1590.2990.174我们的(αstd)我们的(βstd)0.0510.0650.0520.0520.0640.082表1. 300 VW验证集的鉴别参数(α,β)变异比较。我们的网络在测试期间接受单个单眼图像。低一点-更好。6.2. 面部重建视觉结果我们在图3中展示了重建管道的视觉效果。我们的方法成功地恢复了内在的属性,如阴影,法线和颜色强度的脸保持在视频帧的面部身份。6.3. 性别效应在这个实验中,我们研究了性别对我们结果的影响数据集不提供性别注释,因此我们使用性别信息对数据集进行注释。然后,根据性别对数据集样本进行分组,以分析每个性别的结果结果总结见表2。女性的高查准率和查全率值可能表明女性的特征提取更具挑战性并且具有高变异性。然而,这也可能与样本数量有关,因为女性受试者几乎是男性受试者的两倍。6.4. 与其他型号的首先,我们从复制基线模型开始比较。Morales等人的模型。[23]使用决策树(DT)和随机森林(RF)分类器进行测试,并使用其论文中提到的默认参数。Morales等人使用OpenFace [3]在默认输出中提取面部特征(即基础、凝视、姿势、2D和3D面部标志位置、刚性和非刚性形状参数、动作单元)并应用一些统计泛函(即最大值、最小值、平均值、中位数、标准差、变异、峰度、偏度、25%百分位数、50%百分位数、和75%百分位数),以便为每个视频创建一个特征向量。性别精度精度召回样本数量男性女性0.640.770.290.871.000.772853表2.性别特异性欺骗检测结果。Perez-Rosaset al. [25]这是莫拉莱斯等人的基础。[23],也用决策树(DT)和随机森林(RF)分类器实现,具有如他们的论文中提到的默认他们使用手工制作的功能(即,微笑、大笑、皱眉、凝视、嘴唇、眼睛和嘴的张开和闭合、眉毛的位置如皱眉和抬起、头部运动、手的轨迹和运动)。因此,他们工作的准确性结果确实显示了人类注释器的性能。请注意,由于我们的系统只关注面部特征,因此我们从实验设置中排除了与手相关的特征,以获得可比的结果。Morales等人[23]分别提到使用DT和RF分类器的视觉模型的准确率为71.07%和73.55%。然而,他们通过应用留一交叉验证错误地获得这些数字因此,在我们的实验[23]和[25]中,我们应用了留一人(LOPO)交叉验证(其中单个受试者的视频被分离为测试集,从剩余的视频中随机抽取五个作为验证集,剩余的视频作为每个测试折叠的训练集)来重现其校正的准确度结果,如表6.3所示。 请注意,为了在最后获得平衡的训练数据集,我们在数量上随机对多数类进行下采样,以便每个类的实例数量在表3中,通过取20次迭代的平均值获得每个DT和RF结果。作为我们的第三个基线,我们使用卷积神经网络进行时间序列分类(Time-CNN)模型[33]的实验该方法通过对每个特征维度的时间向量进行一维卷积来揭示时间序列模式该模型强调了我们提出的欺骗建模RNN的强度,因为它构建了一个强大的基线,该基线使用与我们提出的CNN面部重建网络提取的相同特征(即面部重建组件(FRC))。表3的最后一行,递归神经网络(RNN)模型,显示了我们提出的欺骗检测方法的性能。结果总结见表6.3。结果表明,所提出的RNN方法提高了4%。此外,我们还改进了(6%)[25],即使用手动注释特征的方法。可能会泄露欺骗的行为线索这图3.在300VW验证分割上对我们的身份感知2D到3D人脸重建进行视觉预测从上到下:原始图像,重建结果,着色,法线。模型特征精度精度召回Morales等人[23](DT)*OpenFace功能0.550.540.50Morales等人[23](俄罗斯联邦)*OpenFace功能0.500.450.25Perez-Rosas等人[25](DT)*手工标记的特征0.660.670.55Perez-Rosas等人[25](俄罗斯联邦)*手工标记的特征0.670.700.55[33]第三十三话FRC0.690.650.77我们的RNNFRC0.730.680.79表3.其他模型的结果和RLT数据集上的欺骗建模RNN* :仅使用泄漏可能不是明显的行为,其不一定由人类观察者注释。这可能表明,所提出的方法捕捉甚至微妙的欺骗检测。7. 结论我们提出了一种新的方法欺骗检测的基础上获得的可靠的低和高层次的面部特征,使用2D到3D人脸重建技术。为了能够从视频中重建人脸(包括3D面部几何形状,表情,反射率,头部姿势和照明),我们提出了一个完全无监督的端到端深度架构。我们展示了我们的方法,以产生一致的身份预测,与其他深度学习方法相比,这些方法在测试时间内只需要一个单目帧。我们的管道使用递归神经网络来学习时间行为,实时工作,并在具有挑战性的真实生活试验(RLT)数据集中显示最先进的准确性我们的结果表明,所提出的方法(与一个准确率为72.8%)改进了现有技术,并且在欺骗检测中优于使用手动编码的面部属性(67.6%)。引用[1] M. Abadi,A.Agarwal,P.Barham,E.Brevdo,Z.陈先生,C. 西特罗湾S. Corrado,A.戴维斯,J。迪恩,M。Devin,S.盖-马瓦特岛。Goodfellow,A.Harp,G.欧文,M。Isard,Y.贾,R. 约瑟夫·奥维茨湖Kaiser,M.Kudlur,J.L evenber g,D.妈妈,R. Monga,S.穆尔,D.默里角,澳-地Olah,M.舒斯特J. Shlens,B.施泰纳岛Sutskever,K. Talwar,P. Tucker,V. Vanhouc k e,V. Vasud ev an,F. Viegas,O. Vi nyals,P. 等等,M。Wattenberg,M.Wicke,Y.Yu和X.郑张量流:异构系统上的大规模机器学习,2015年。软件可从tensorflow.org获得。5[2] M. Abouelenien,V. 佩雷兹-罗萨斯,R. 米哈尔恰,和M. 伯佐使用多模态方法的欺骗检测第16届多模态相互作用国际会议论文集,第58-65页。ACM,2014年。1[3] T. Baltrus Rumaitis , P. Robinson 和 L.- P. Mooney 。Openface:一个开源的面部行为分析工具包。在计算机视觉应用(WACV),2016年IEEE冬季会议上,第1-10页。IEEE,2016年。第二、六条[4] 诉Blanz和T.维特一种用于合成3d人脸的可变形模型在第26届计算机图形和交互技术年会的会议记录中,第187页194. ACM Press/Addison-Wesley Publishing Co. 1999. 2[5] C. F.小邦德和B。M.德保罗 欺骗的准确性-的判断。Personality and Social Psychology Review,10(3 ):214-234,2006. 1[6] H. Bouma湾伯豪特河den Hollander,S.范德兹,J. Baan,J.-M. ten Hove,S.van Diepen,P.范登哈克,和J. 范雷斯特。测量基于全身非语言特征的佩戴式摄像机中的对峙欺骗检测线索在光学和光子学的反恐,打击犯罪,和国防十二,卷9995,第99950 N。国际光学与光子学会,2016年。2[7] A. Bulat和G.齐米罗普洛斯我们离解决二维和三维人脸对齐问题还有多远?(and 230,000个3D面部界标的数据集)。在2017年的国际计算机视觉会议上。5[8] J. K. Burgoon,N. Magnenat-Thalmann,M. 恐慌,A.文西亚雷利社会信号处理。剑桥大学出版社,2017年。2[9] G. G. Chrysos,E.作者:A. Asthana,以及S.扎费里奥。一个全面的性能评估可变形人脸跟踪“在野外”。国际计算机视觉杂志,126(2-4):198-232,2018。5[10] N. M. L. DesJardins和S. D.霍奇斯阅读谎言之间:移情准确性和欺骗检测。社会心理学和人格科学,6(7):7812[11] C. Ding,D.Zhou,X.他,和H。扎。R1-PCA:稳健子空间分解的旋转不变L1范数主成分分析第23届国际机器学习会议论文集,ICML'06,第281- 288页,美国纽约州纽约市,2006年ACM。4[12] K. Fiedler,J. Schmid,and T.斯塔尔目前测谎仪测谎的真相是什么?Basic and Applied Social Psychology,24(4):313-324,2002. 1[13] G. Gallego和A. J. Yezzi指数坐标系中三维旋转导数的一个简洁公式CoRR,abs/1312.0788,2013年。5[14] 加里多湖瓦尔加伊角Wu和C.希奥博尔特从单目视频重建详细的动态面部几何形状。ACM事务处理图表,32(6):158-1,2013. 2[15] K.热那亚湾Cole,A. Maschinot,A. Sarna,D.弗拉西奇,W. T.弗里曼3d变形模型回归的无监督训练。在IEEE计算机视觉和模式识别会议(CVPR)上,2018年6月。2[16] T. Gerig,A. Forste r,C. Blume r,B. Egge r,M. 卢伊提,S. Schoenborn和T. 韦特河可变形的面模型-一个开放的框架。CoRR,abs/1709.08398,2017年。三,五[17] M. Hartwig和C. F.小邦德多线索测谎:荟萃分析。应用认知心理学,28(5):661-676,2014。一、二[18] H. 金,M。Zollhofer,A.Tewari,J.蒂斯角Richardt和C.希奥博尔特InverseFaceNet:深度单目逆人脸渲染。在计算机视觉和模式识别会议(CVPR)上,2018年6月。2[19] D. E. 王 Dlib-ml : 一 个 机 器 学 习 工 具 包 。 Journal ofMachine Learning Research,10:1755-1758,2009。5[20] D. P. Kingma和J. Ba。Adam:随机最佳化的方法。CoRR,abs/1412.6980,2014年。5[21] A.克里热夫斯基岛Sutskever和G. E.辛顿使用深度卷积神经 网 络 进 行 图 像 网 分 类 。 在 Proceedings of the 25thInternationalConferenceonNeuralInformationProcessing Systems-Volume 1,NIPSCurran Associates Inc.3[22] Z. Liu,P. Luo,X. Wang和X.唐在野外深度学习人脸属性。在计算机视觉国际会议(ICCV)的会议记录中,2015年12月。5[23] M. R. Morales,S. Scherer和R.列维坦Openmm:一个开源的多模态特征提取工具。在Proc. Interspeech 2017,第3354-3358页,2017年。一、二、六、七[24] S. J. Pentland , N. W. Twyman , J.K. Burgoon , J.F.Nuna- maker Jr和C. B.迪勒基于视频的筛查系统,用于使用细微差别的面部特征进行自动风险评估Journal ofManagement Information Systems,34(4):970 2[25] V. 佩雷兹-罗萨斯,M. Abouelenien,R. 米哈尔恰,和M.伯佐使用真实试验数据的欺骗检测。在2015年ACM多模态交互国际会议论文集,ICMI ACM。二五六七[26] A. 你好,M。 Zol lo?fe r,H. Kim,P. Garrido,F. 伯纳德,P. Perez和T.基督徒MoFA:用于无监督单目重建的基于模型的深度卷积人脸自动编码器。IEEEInternationalConference on Computer Vision ( ICCV ) , 2017 年 。二、四、六[27] J. 蒂,M。 Zoll hoferr,M. 尼斯内河 Val gaerts,M. Stam-minger和C.希奥博尔特实时表情转移面部再现。ACM事务处理图表,34(6):1832[28] J. Thies,M. Zollhofer,M.斯塔明格角Theobalt和M.尼斯纳Face2face:实时人脸捕捉和rgb视频的重现。在IEEE计算机视觉和模式识别会议论文集,第2387-2395页2[29] J. 蒂,M。 Zollh oüfer,M. S t amminge r,C. Theobalt和M.尼斯纳Face2face:实时人脸捕捉和rgb视频的在proc计算机视觉和模式识别(CVPR),IEEE,2016。第三、四节[30] A.弗里伊河P. Fisher和H.空格. 测谎的认知方法:荟萃分析。法律和犯罪心理学,22(1):1-21,2017。2[31] P. Wu,H. Liu,C. Xu,Y. Gao,Z. Li和X.张某你怎么一个全面的微笑分析系统。神经计算,235:245-254,2017。2[32] W.- J. Yan和Y.- H.尘通过特征提取方法测量动态微表情。计算科学杂志,25:318-326,2018。2[33] B. Zhao,H. Lu,S. Chen,J. Liu,and D.吴时间序列分类的卷积神经网络系统工程与电子杂志,28(1):162-169,2017。六、七
下载后可阅读完整内容,剩余1页未读,立即下载
![.pdf](https://img-home.csdnimg.cn/images/20210720083646.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![-](https://csdnimg.cn/download_wenku/file_type_lunwen.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- VMP技术解析:Handle块优化与壳模板初始化
- C++ Primer 第四版更新:现代编程风格与标准库
- 计算机系统基础实验:缓冲区溢出攻击(Lab3)
- 中国结算网上业务平台:证券登记操作详解与常见问题
- FPGA驱动的五子棋博弈系统:加速与创新娱乐体验
- 多旋翼飞行器定点位置控制器设计实验
- 基于流量预测与潮汐效应的动态载频优化策略
- SQL练习:查询分析与高级操作
- 海底数据中心散热优化:从MATLAB到动态模拟
- 移动应用作业:MyDiaryBook - Google Material Design 日记APP
- Linux提权技术详解:从内核漏洞到Sudo配置错误
- 93分钟快速入门 LaTeX:从入门到实践
- 5G测试新挑战与罗德与施瓦茨解决方案
- EAS系统性能优化与故障诊断指南
- Java并发编程:JUC核心概念解析与应用
- 数据结构实验报告:基于不同存储结构的线性表和树实现
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)