没有合适的资源?快使用搜索试试~ 我知道了~
1源图像938个身份FaceScape数据集预测脸部操纵面详细的可操纵人脸预测FaceScape:大规模高质量3D人脸数据集和精细可靠的3D人脸预测杨昊天1朱昊1,2,5王艳茹1黄明凯1沈秋1杨瑞刚2,3,4,5 曹勋11南京大学2百度研究院3肯塔基大学4Inceptio Inc.5深度学习技术及应用国家工程实验室图1:我们展示了FaceScape,这是一个大规模的详细3D人脸数据集,由18,760个具有孔隙级几何结构的纹理3D人脸模型组成。通过从FaceScape中学习动态细节,我们提出了一种新的算法来从单个图像中预测详细的操纵3D人脸模型,该模型可以生成具有高几何细节的各种表情。摘要在本文中,我们提出了一个大规模的详细的3D人脸数据集,FaceScape,并提出了一种新的算法,能够预测精心制作的3D人脸模型,从一个单一的图像输入。FaceScape数据集提供了18,760个纹理化的3D人脸,从938个主题中捕获,每个主题有20个特定的表情。3D模型包含孔隙级面部几何形状,其也被处理为拓扑均匀。这些精细的3D面部模型可以表示为用于粗略形状的3D可变形模型和用于详细几何形状的位移图。利用大规模和高精度数据集的优势,进一步提出了一种新的算法学习的关系,船舶作为我们的3D人脸预测系统的基础,与传统的方法不同,我们预测的三维模型在不同的表达方式下具有高度详细的几何形状。前所未有的数据集和代码将公开发布用于研究目的。[2]这些作者对这项工作的贡献是相等的。†https://github.com/zhuhao-nju/facescape.git1. 介绍从图像中解析和恢复三维人脸模型是计算机视觉和计算机图形学领域的一个研究热点。随着基于学习的方法成为人脸跟踪、识别、重建和合成的主流,三维人脸数据集变得越来越重要。虽然有许多2D人脸数据集,但少数3D数据集缺乏3D细节和规模。因此,依赖于3D信息的基于学习的方法受到影响。现有的3D人脸数据集使用稀疏相机阵列[8,19,34]或有源深度传感器(如Kinect[12]和编码光[33])捕获人脸几何形状。这些设置限制了恢复的面的质量我们在受控照明下使用密集的68相机阵列捕获3D面部模型,其恢复具有皱纹和毛孔级别详细形状的3D面部模型,如图1所示。除了形状质量外,我们的数据集还提供了大量的扫描数据用于研究。我们邀请了938名年龄在16岁到70岁之间的人作为受试者,并指导每个受试者执行20个指定表情,生成18,760个高质量的3D人脸模型。对应的彩色图像和受试者601602也被记录下来。基于高保真的原始数据,我们建立了一个强大的参数模型来表示详细的人脸形状。所有的原始扫描首先被转换成一个拓扑统一的基础模型表示的粗略形状和位移图表示的详细形状。变换后的模型进一步用于建立身份维度和表达维度的双线性模型。实验表明,我们生成的双线性模型在代表性能力上超过了以前的方法。利用FaceScape数据集,我们研究了如何从一幅图像中预测出一个详细的人脸模型.先前的方法能够估计粗略的blendshape,其中没有wrin-kle和微妙的特征被恢复。其主要问题是如何预测小尺度的几何变化所造成的 表 情 变 化 , 如 皱 纹 。 我 们 提 出 了 可 以 通 过 在FaceScape数据集上训练深度神经网络来从单个图像中预测的动态细节结合双线性模型拟合方法,提出了一个完整的可操纵模型预测系统.该系统由基模型拟合、位移图预测和动态细节合成三个阶段组成如图1所示,我们的方法预测了包含微妙几何形状的详细3D人脸模型,并由于从FaceScape数据集生成的强大的双线性模型而预测的模型可以被操纵到具有合理的详细几何形状的各种表达式。我们的贡献概述如下:• 我 们提 出了 一 个大 规模 的 三维 人脸 数 据集 ,FaceScape,由18,760个非常详细的三维人脸模型。所有的模型都被处理成拓扑统一的,形成了粗略形状的基本模型和详细形状的位移图。这些数据是免费发布的,用于非商业研究。• 我们将表达式中的详细几何变化建模为动态细节,并建议使用深度神经网络从FaceScape中学习动态细节。网络• 提出了一个完整的流水线,从一个单一的图像预测详细的我们的结果模型可以被操纵到各种表达与合理的地理-度量详细信息。2. 相关工作三维人脸数据集。 三维人脸数据集在人脸相关研究领域具有重要价值。现有的三维人脸数据集可以根据三维人脸模型的获取进行分类。模型拟合数据集[33,60,23,5,7]将3D变形模型拟合到收集的图像,这使得可以方便地在野生面部的基础上构建大规模数据集。拟合3D模型的主要问题是准确性的不确定性和缺乏详细的形状。为了获得准确的3D人脸形状,许多作品使用包括深度传感器或扫描仪的主动方法重建3D人脸[53,52,3,38,37,12,17],而其他作品则构建稀疏多视图相机系统[54,18]。传统的深度传感器和3D扫描仪受到有限的空间分辨率的限制,因此它们稀疏多视图相机系统遭受不稳定和不准确的重建[39,56,55]。这些方法的缺点限制了以前数据集的三维人脸模型与上述数据集不同的是,FaceScape从68个DSLR相机的密集多视图系统中获得了3D人脸模型,提供了极高质量的人脸模型。测量3D模型质量的参数列于表1中。我们的数据集在模型质量和数据量上都优于以前的作品。请注意,表13D变形模型。3DMM是一种统计模型,它将面部的形状和纹理转换为矢量空间表示[4]。由于三维多模型模型本身包含了模型间的显式对应关系,因此在模型拟合、人脸合成、图像处理等方面有着广泛的应用。目前对三维数字万用表的研究大体上可以分为两个方向。第一个方向是将参数空间分离为多个维度,如身份,表达和视位,以便模型可以分别由这些属性控制[49,12,29,26]。表情维度中的模型可以进一步转换为一组混合变形[27],可以操纵这些混合变形以生成个体特定的动画。另一个方向是通过使用深度神经网 络 来 呈 现 3DMM 基 , 以 增 强 3DMM 的 表 示 能 力[2,42,45,47,46,16]。单视图形状预测。 从单个图像预测3D形状是许多应用的关键问题,如视图合成[22,57,58]和立体视频生成[13,24]。3DMM的出现将人脸的单视图重建简化为模型拟合问题,可以通过拟合面部标志和其他特征[36,43]或使用深度神经网络回归3DMM的参数[20,60]来很好地解决这个问题。然而,由于有限的表示能力,拟合3DMM难以从输入图像中恢复小为了解决这个问题,最近的一些作品采用多层细化结构。Richardson等人[35]和Selaet al. [40]两者都提出首先预测粗略的面部形状并将其渲染到深度图,然后细化深度图以增强来自配准的源图像的细节Sengupta等人[41]建议在标记的合成数据和未标记的野外数据的组合上训练SfSNet,以估计未标记的可能的详细形状。603表1:3D面部数据集数据集附属NumExp. NumVert. Num图像/纹理分辨率源[53]第五十三话1002510k-20k1300 ×900/ -结构光[52]第五十二话1016(视频)10k-20k1040 ×1329/ -结构光BJUT-3D[3]5001-3200k478×489/-激光扫描仪博斯普鲁斯海峡[38]1053535000美元1600 ×1200/ -结构光FaceWarehouse[12]1502011K640×480Kinect4DFAB[17]1806(视频)100k1200 ×1600/ -Kinect+相机(7)D3DFACS[18]1038AU(视频)30k- /1024 ×1280多视图系统(6)BP 4D-自发性[54]4127AU(视频)37K1040 ×1392/ -多视图系统(3)FaceScape(我们的)93820200万4K-8K/4096×4096多视图系统(68)约束图像。 Tran等人[44]预测一个凹凸贴图来表示基于粗糙基础模型的网格级几何图形。Huynh等人[25]利用图像到图像网络和超分辨率网络以位移图的形式恢复介观面部几何形状Chen等人[15]还尝试使用基于3DMM模型的条件GAN预测位移图,该模型能够从野外恢复详细的形状Num.14012010080604020年龄和性别分布形象我们的工作在多个方面推进了最先进的技术。在数据集中,我们的FaceScape是迄今为止规模最大、质量最高与先前数据集的详细定量比较见表1。在3D人脸预测中,以往的工作主要集中在增强静态的详细的人脸形状,而我们研究的问题,从一个单一的图像恢复一个动画模型。我们首次证明了一个详细的和操纵的3D人脸模型可以从一个单一的图像恢复。装配模型显示依赖于表达式的几何细节,如皱纹。3. 数据集3.1. 3D人脸捕捉我们使用多视图三维重建系统来捕获数据集的原始网格模型多视角系统由68个DSLR相机组成,其中30个相机拍摄正面聚焦的8K图像,其他相机拍摄侧面部分的4K级别图像。相机快门同步,在5毫秒内触发。我们花了六个月的时间邀请938人成为我们的拍摄对象。受试者年龄在16至70岁之间,大多来自亚洲。我们遵循FaceWarehouse[12],要求每个受试者执行20个特定的表达,包括用于捕获的中性表达。总重建数量达到约18,760,这是与以前的表情控制3D人脸数据集相比最大的数量。重建后的模型是一个三角形网格,大约有200万个顶点和400万个三角形面.记录每个受试者的Meta信息,包括年龄、性别和工作016 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 52 54 56 58 60 62 64 66 68年龄3D模型数据图2:FaceScape数据集的描述。在上方,我们显示了受试者年龄和性别的直方图。 在下方,我们显示了从捕获的多视图图像到拓扑统一模型(T.U.模型)。(by自愿)。我们在图2中显示了数据集中关于受试者的统计信息,并在表1中与先前的3D人脸数据集进行了比较。3.2. 拓扑统一模型我们将原始的恢复网格下采样为具有较少三角面的粗糙网格,即基本形状,然后为这些简化的网格构建3DMM。首先,我们粗略地将所有的网格注册到模板基础模型多视角图像原始扫描患者使用的一次性地图T.U. 模型渲染男性女性604人脸模型605误差/mm通过对齐3D面部标志,然后使用NICP[1]使模板变形以适合扫描的网格。变形后的网格可以用来表示原始的扫描面,精度损失很小,更重要的是,所有的变形模型共享统一的拓扑结构。补充材料中描述了配准所有原始补片的详细步骤。在获得拓扑均匀的基础形状后,我们使用UV空间中的位移映射来表示由于顶点和面的数量较少而未被基础模型捕获的中尺度在位移映射图中找到与像素点相对应的基网格表面点,然后将这些点沿法线方向逆投影到原始网格上,找到其对应点拟合精度点 位移贴图的像素值设置为从基础网格上的点到其对应点的有符号距离。我们使用基本形状来表示粗略的几何形状,使用位移图来表示详细的几何形状,这是我们非常详细的面部形状的两层表示。新的表示法大约需要原始网格数据大小的2%,同时保持平均绝对误差小于0。3毫米3.3. 双线性模型双线性模型首先由Vlasic等人提出。[49],它是三维变形模型的一种特殊形式,可以在身份和表情两个维度上对人脸模型进行参数化。双线性模型可以链接到面部拟合算法以提取身份,并且拟合的个体特定模型可以进一步转换为可操纵的混合形状。在这里,我们描述了如何生成双线性模型从我们的拓扑一致的模型。给定20个不同表情的正则网格,我们使用基于示例的面部装配算法[27]为每个人生成52个基于FACS的混合形状[21]然后,我们按照前面的方法[49,12]在26317个顶点×52个表达式×938个恒等式。具体来说,我们使用Tucker分解来分解大的秩3张量到一个小的核心张量Cr和两个低维分量的身份和表达。在给定身份参数w_id和表达参数w_exp的情况下,可以生成新的面部形状,如下:V=Cr×wexp×wid(1)其中V是生成网格的顶点位置。FaceScape在质量和数量上的优势使得生成的双线性模型具有更高的表示能力。 我们评估代表权通过将其拟合到扫描的3D网格(不是训练数据的一部分)来优化我们的模型。我们将我们的模型与FaceWarehouse(FW)[12]和FLAME[29]进行比较,拟合精度扫描固件火焰我们的50 47 我们的300 52图3:FaceScape和以前数据集生成的参数模型的重建误差比较到我们自己捕获的测试集,其中包括1000个高质量的网格,来自50个主题,每个主题执行20种不同的表情。FW有50个标识参数和47个表达式参数,因此我们使用相同数量的参数进行公平比较。与FLAME的300个身份参数和100个表达参数相比,我们使用300个身份参数和所有52个表达参数。图3显示了累积反射误差。我们的双线性人脸模型使用相同数量的参数实现了比FW低得多的拟合误差,并且使用更少的表情参数也优于FLAME。图3中的视觉比较显示,我们的模型可以产生比FW和FLAME更多的中等尺度细节,从而产生更真实的拟合结果。4. 详细的索具模型预测如第2节中的相关工作中所回顾的,现有方法已经成功地从单个图像恢复非常详细的3D面部模型。然而,这些恢复的模型在表达式空间中是不可复制的,因为恢复的细节对于特定的表达式是静态的另一百分比606图4:可操纵的细节可以分离为静态细节和动态细节。静态细节可以从面部纹理中估计,而动态细节与面部变形图密切相关。一组工作试图拟合一个参数化的模型到源图像,这将获得一个表达式可操纵的模型,但恢复的几何形状停留在粗略的阶段。FaceScape数据集的出现使得从单个图像中估计详细的和可操纵的3D人脸模型成为可能,因为我们可以从大量详细的人脸模型中学习动态细节。我们在图5中展示了我们的流水线,以从单个图像中预测详细的可装配的3D人脸模型。管道由三个阶段组成:基模型拟合、位移图预测和动态细节合成。我们将在下面的章节中详细解释每个阶段4.1. 基础模型拟合由于参数空间被分解为恒等维和表达式维,基形的双线性模型具有内在的可装配性,因此可以通过对双线性模型的恒等参数进行回归来生成粗可装配模型在[43]之后,我们通过优化由三部分组成的目标函数来估计与给定图像对应的参数。第一部分是标志对齐项。假设摄像头很弱计算合成图像对输入图像的解释程度。最后一部分是正则化项,它将恒等式、表达式和参数表示为多元高斯。最终目标函数由下式给出:E=Elan+λ1Epixel+λ 2Eid+λ 3Eexp+λ 4Ealb(2)其中Eid、Eexp和Ealb分别是表达式、恒等式和恒等式的正则化项。λ1、λ2、λ3和λ4是不同项的权重在获得身份参数w_id之后,个体-具体的融合变形Bi可以生成为:Bi=Cr×wexp(i)×wid,0≤i≤51(3)其中,w∈P(i)是对应于来自Tucker分解的融合形状Bi的扩展参数。4.2. 位移图预测详细的几何形状表示为我们预测的模型的位移映射。与静态细节只与某一时刻的特定表达相关不同,动态细节以不同的表达方式表达几何细节。由于单个位移图不能表示动态细节,我们尝试使用深度神经网络预测FaceScape中20个基本表达式的多个位移图我们观察到位移映射在一定表达式下可以解耦为静态部分和动态部分。静态部分在不同的表现形式下趋于静态,主要与毛孔、痣、器官等内在特征有关。动态部分有不同的表现形式,并与表面的收缩和拉伸有关.我们使用一个变形映射来模拟表面运动,它被定义为顶点在UV空间中从源表达式到目标表达式的3D位置之差。如图4所示,我们可以看到位移贴图之间的方差与变形贴图密切相关,位移贴图中的静态特征与纹理相关。因此,我们将运动图和纹理馈送到CNN,以预测多个表达式的位移图我们使用pix2pixHD[50]作为神经网络的骨干来合成高分辨率位移图。网络的输入是UV空间中的变形贴图和纹理的堆栈,可以从重新覆盖的基础模型计算。与[50]类似,对抗损失Ladv和特征匹配损失LFM的组合用于训练我们的网络,损失函数公式为:Σ在透视图中,定义了地标对准项Elan作为检测到的2D地标与其最小值((最大值GD1、D2、D 3k=1,2, 3Ladv(G,Dk))(四)投影到图像空间上的对应顶点。第二部分是像素级一致性项E像素度量。Σ+λk=1,2, 3LFM(G,Dk)607我基础模型拟合位移图预测动态细节合成…融合变形装配模型融合变形权重+模型拟合UV纹理映射C详细的装配模型变形贴图pix2pixHD置换贴图单个图像动态置换贴图图5:从单个图像预测详细的可装配3D人脸的管道包括三个阶段:基础模型拟合,位移映射预测和动态细节合成。其 中 G 是 生 成 器 , D1 , D2 和 D3 是 具 有 相 同LSGAN[31]架构但以不同尺度操作的鉴别器,λ是特征匹配损失的权重4.3. 动态细节合成受[32]的启发,我们合成了对应于特定混合的任意表达式的位移映射F形状权重α,使用中性表达式中生成的位移图F0和其他19个表达式中生成的位移图FiΣ19F=M0<$F<$0+Mi<$F<$i(5)i=1其中M是像素值在0和1之间的权重掩码,k是逐元素乘法运算。为了计算权重遮罩,考虑Blendshape表达式,假设局部变化,我们首先计算激活掩码对于每个混合变形网格ej,UV空间中的Aj为:Aj(p)=||ej(p)−e0(p)||第二章(六)其中Aj(p)是第j个动作掩模的位置p处的像素值,ej(p)和e0(p)分别是混合变形网格ej和中性混合变形网格e0上的对应顶点位置。激活掩码在0和1之间进一步给定51个融合变形网格中的每一个的激活掩码A j,第i个权重掩码M i被公式化为由当前融合变形权重α和对应于第i个ky表达式的固定融合变形权重α i加权的激活掩码的线性组合:Σ51Mi=αjα<$ jAj(7)j=1其中αji s是α的第j个元素。M0是通过M0=有许多现有的性能驱动的面部动画方法使用深度相机[51,28,9]或单个RGB相机[11,10,14]生成融合变形权重。由于混合变形权重具有语义意义,5. 实验5.1. 实施详细信息我们使用数据集中的888人作为训练数据,总共有17760个位移图,留下50人进行测试。我们使用Adam优化器来训练网络,学习率为2e-4。网络的输入纹理和输出位移图我们使用50个身份参数,52个表达式参数和100个身份参数进行参数化,在所有实验中。5.2. 3D模型预测预测的可装配3D面如图6所示。为了显示恢复的面部模型的可装配特征,我们将模型装配到5个特定的表情。我们可以看到,操纵模型的结果包含照片般逼真的细节皱纹,这是以前的方法无法恢复的。点到平面的重建误差计算我们的模型和地面真实形状之间。平均误差见表2。更多结果和生成的动画显示在补充材料中。5.3. 消融研究W/O动态细节。我们尝试只使用一个位移映射从源图像的操纵表达式,和其他部分保持不变。 如图9所示,我们发现具有动态细节的操纵模型显示了各种表达式引起的皱纹,而这些表达式不是max(0,1−19i=1Mi)。W/O动态方法中发现。608图片来源/渲染模型预测基数预测明细表达式A表达式B表达式C表达式D表达式E预测模型装配模型图6:我们在源表达式和操纵表达式中显示预测的面孔。值得注意的是,操纵表情中的皱纹是从源图像预测的。表2:3D人脸预测误差不变形贴图。我们改变了我们的位移映射预测网络的输入,通过用20个目标表达式中的每一个的独热编码替换变形映射 如图9所示,我们发现没有变形映射的结果(W/O Def.地图)包含很少的细节所造成的表达式。5.4. 与先前作品的我们在图7中显示了我们的结果和其他工作的预测结果。细节预测的比较是方法平均误差方差我们的方法(所有经验)1.392.33我们的方法(来源经验)1.221.17DFDN[15](source exp.)2.193.20[44]第44话:我的世界2.062.553DDFA[59](来源经验)2.173.23609源图像我们DFDN源图像我们的DFDNExtreme3D3DDFA图7:静态3D人脸预测与以前方法的比较。顶部两行中的图像来自FaceScape,第三行中的图像来自Volker序列[48],并且底部行中的图像来自互联网。前三张图像具有真实形状,因此我们评估重建误差并在每行下方显示热图我们的方法预测的最低误差比较,paring到以前的三种方法。如图8所示。由于大多数其他作品预测的人脸细节不能直接与其他表达式绑定,因此我们只显示源表达式中的人脸形状。我们的结果在视觉上比以前的方法更好,在热图的误差定量上也更好。我们认为我们的方法在准确性上表现最好的主要原因是我们的双线性模型的强大表示能力,并且预测的细节有助于视觉上合理的详细几何形状。6. 结论我们提出了一个大规模的详细的3D面部数据集,FaceScape。与以往公开的大规模3D人脸数据集相比,FaceScape提供了最高的几何质量和最大的模型数量。我们探索预-图8:细节预测的比较。我们采用NICP[1]将不同方法的基础网格配准到地面实况扫描,并在公共基础网格上可视化预测的细节。图9:消融研究。我们最终的模型能够恢复皱纹的操纵表达式,而方法W/O变形地图和W/O动态细节不能。从一幅图像中提取出一个细节丰富的三维人脸模型,实现了动态细节合成的高逼真度。我们相信FaceScape的发布将刺激未来的研究,包括三维人脸建模和解析。确认这项工作得到了资助-BK20192003,以及百度研究院的资助。10 mmMAE:1.96MAE:3.04MAE:3.30MAE:2.670mm的10 mmMAE:1.13MAE:2.79MAE:2.69MAE:2.250mm的10 mmMAE:1.78MAE:2.14MAE:3.21MAE:2.090mm的610引用[1] Brian Amberg,Sami Romdhani,and Thomas Vetter.用于表面配准的最佳步长非刚性icp算法。在CVPR,第1-8页,2007中。四、八[2] Timur Bagautdinov 、 Chenglei Wu 、 Jason Saragih 、Pascal Fua和Yaser Sheikh。使用合成vae建立面部几何模型在CVPR中,第3877-3886页,2018年。2[3] 殷宝才、孙燕峰、王成章、葛云。大规模三维人脸数据库及信息处理。计算机研究与发展杂志,6:020,2009。二、三[4] Volker Blanz,Thomas Vetter,et al.三维人脸合成的可变形模型。在Siggraph,第99卷,第187-194页,1999中。2[5] James Booth 、 Epameinondas Antonakos 、 StylianosPloumpis 、 George Trigeorgis 、 Yannis Panagakis 和Stefanos Zafeiriou。3d脸变形模型“在野外”。在CVPR中,第5464-5473页,2017年。2[6] James Booth 、 Anastasios Roussos 、 Allan Ponniah 、David Dunaway和Stefanos Zafeiriou。大规模三维变形模型。IJCV,126(2-4):233-254,2018. 2[7] JamesBooth , AnastasiosRupesos , EvangelosVerveras,EpameinondasAntonakos,StylianosPloumpis , Yannis Pana g akis , andSte f anosZafeiriou.3D重建的一个在野外的一个蝙 蝠 ?图片和视频中的照片。PAMI,40(11):26382[8] James Booth、Anastasios Roussos、Stefanos Zafeiriou、Allan Ponniah和David Dunaway。从10,000张面孔中学习的3D变形模型在CVPR中,第5543-5552页,2016年。一、二[9] Sofien Bouaziz,Yanang Wang,and Mark Pauly.实时面部动画的在线建模ToG,32(4):40,2013.6[10] 陈操、启明侯、昆州。位移动态表情回归实时面部跟踪和动画。ToG,33(4):43,2014. 6[11] 曹晨,翁彦林,林志颖,周坤。用于实时面部动画的3d形状回归。ToG,32(4):41,2013. 6[12] 曹 晨 、 翁 彦 林 、 周 顺 、 童 一 英 、 周 坤 。Facewarehouse:用于视觉计算的三维面部表情数据库。TVCG,20(3):413-425,2013. 一、二、三、四[13] 曹勋,郑立,戴琼海。使用视差传播的半自动2d到3d转换。ToB,57(2):491-499,2011. 2[14] Bindita Chaudhuri , Noranart Vesdapunt , and BaoyuanWang.多个人脸的联合人脸检测和人脸运动重定向在CVPR中,第9719-9728页,2019年。6[15] Zhang Chen,Guli Zhang,Kenny Mitchell,Jingyi Yu,et al.从单个图像合成照片级逼真的面部细节。arXiv预印本arXiv:1903.10873,2019。三、七[16] Shiyang Cheng , Michael Bronstein , Yuxiang Zhou ,Irene Kotsia , Maja Pantic , and Stefanos Zafeiriou.Meshgan:面部的非线性3D变形模型。arXiv预印本arXiv:1903.10384,2019。2[17] Shiyang Cheng,Irene Kotsia,Maja Pantic,and StefanosZafeiriou. 4dfab:一个大规模的面部表情4D数据库611分析和生物识别应用。在CVPR中,第5117-5126页,2018年。二、三[18] Darren Cosker Eva Krumhuber和Adrian Hilton有效的三维动态动作单元数据库及其在三维动态可变形人脸建模中的应用在ICCV,第2296- 2303页,2011年。二、三[19] Hang Dai,Nick Pears,William AP Smith和ChristianDuncan。颅面形状和纹理变化的三维可变形模型。在ICCV,第3085-3093页,2017年。1[20] Pengfei Dou,Shishir K Shah,and Ioannis A Kakadiaris.基于深度神经网络的端到端三维人脸重建。在CVPR中,第5908-5917页,2017年。2[21] Paul Ekman和Wallace V.弗里森面部动作编码系统:一种测量面部运动的技术。1978. 4[22] John Flynn,Ivan Neulander,James Philbin,and NoahSnavely. Deepstereo:学习从世界图像中预测新视图。在CVPR中,第5515-5524页,2016年。2[23] 郭玉东,蔡建飞,姜博一,郑建民,等。基于cnn的真实感人脸图像实时稠密重构。PAMI,41(6):1294-1307,2018。2[24] Weicheng Huang,Xun Cao,Ke Lu,Qionghai Dai,and Alan Conrad Bovik.朝向自然主义的2D到3D转换。TIP,24(2):724-733,2014年。2[25] Loc Huynh,Weikai Chen,Shunsuke Saito,Jun Xing,Koki Nagano,Andrew Jones,Paul Debevec,and HaoLi.使用深度神经网络的介观面部几何推断在CVPR中,第8407-8416页,2018年。3[26] Zi-Hang Jiang,Qianyi Wu,Keyu Chen,and JuyongZhang.三维人脸形状的解纠缠表示学习。在CVPR中,第11957-11966页,2019年。2[27] Hao Li,Thibaut Weise,and Mark Pauly.基于示例的面部操纵。在ToG,第29卷,第32页,2010中。二、四[28] Hao Li,Jihun Yu,Yuting Ye,and Chris Bregler.实时面部动画与即时矫正。ToG,32(4):426[29] Tianye Li,Timo Bolkart,Michael J Black,Hao Li,and Javier Romero.从4d扫描中学习面部形状和表情的模型。ToG,36(6):194,2017. 二、四[30] MarcelLuithi , ThomasGerig , ChristophJud ,andThomasVetter. 高 斯 过 程 变 形 模 型 。 PAMI , 40(8):1860-1873,2017. 2[31] Xudong Mao , Qing Li , Haoran Xie , Raymond YKLau,Zhen Wang,and Stephen Paul Smolley.最小二乘生成对抗网络。在ICCV,第2794-2802页,2017年。6[32] Koki Nagano,Jaewoo Seo,Jun Xing,Lingyu Wei,Zimo Li , Shunsuke Saito , Aviral Agarwal , JensFursund,Hao Li,Richard Roberts,et al.异教徒:使用动态纹理的实时化身。ToG,37(6):258-1,2018. 6[33] Pascal Paysan、Reinhard Knothe、Brian Amberg、SamiRomdhani和Thomas Vetter。一种用于姿态和光照不变人 脸 识 别 的 三 维 人 脸 模 型 。 在 IEEE InternationalConferenceonAdvancedVideoandSignalBasedSurveillance,第296-301页,2009年。一、二[34] P乔纳森·菲利普斯,帕特里克·J·弗林,托德·斯克鲁格斯,凯文·W·鲍耶,张进,凯文·霍夫曼,乔·马克斯,Jaesik612敏和威廉·沃雷克人脸识别大挑战概述。见CVPR,第947-954页,2005年。1[35] Elad Richardson,Matan Sela,Roy Orel和Ron Kimmel。从单个图像学习详细的面部重建在CVPR中,第5553-5562页,2017年。2[36] Sami Romdhani和Thomas Vetter利用像素强度、边缘、镜面高光、纹理约束和先验估计三维形状和纹理。在CVPR,第2卷,第986-993页,2005中。2[37] WojciechSankowski , PiotrStefanNowak , andPawestern Krotewicz. 3d脸部和手部扫描的多模态生物特征数据库dmcsv1。在MIXDES,第93-97页,2015年。2[38] ArmanSa vran,我不认识你,HamdiDibekliog lu,OyaCeliktutan , BerkGokberk , BuentSankur ,andLaleAkarun. 博斯普鲁斯数据库三维人脸分析。在EuropeanWork-shoponBiometricsandIdentityManagement,第47-56页二、三[39] Steven M Seitz,Brian Curless,James Diebel,DanielScharstein,and Richard Szeliski.多视点立体重建算法的比较与评价。在CVPR,第1卷,第519-528页,2006中。2[40] Matan Sela Elad Richardson和Ron Kimmel使用图像到图像转换的无限制面部几何结构重建在ICCV,第1576-1585页,2017年。2[41] Soumyadip Sengupta , Angjoo Kanazawa , Carlos DCastillo,and David W Jacobs.Sfsnet:学习野外人脸的形状、反射率和照度在CVPR中,第62962[42] AyushTewari , MichaelZollhofer, PabloGarrido , FlorianBernard,HyeongwooKim,PatrickPe'rez,andChristianTheobalt.250hz以上单目重建的自我监督多层次人脸模型学习在CVPR中,第2549-2559页2[43] Justus Thies , Michael Zollhofer , Marc Stamminger ,Chris- tian Theobalt,and Matthias Nießner. Face2face:实时人脸捕捉和rgb视频重现。CVPR,第2387-2395页,2016年二、五[44] Anh Tuan Tran,Tal Hassner,Iacopo Masi,Eran Paz,Yu-valNirkin和Ge'rardGMedioni。极端的三维面重建:通过遮挡看到在CVPR中,第3935三、七[45] 陈鸾,刘凤,刘小明。高保真非线性三维人脸形变模型的研究。在CVPR中,第1126-1135页2[46] Luan Tran和Xiaoming Liu。非线性三维人脸变形模型。在CVPR中,第7346-7355页,2018年。2[47] Luan Tran和Xiaoming Liu。从野外图像中学习三维人脸变形模型。PAMI,2019。2[48] Le viValg aerts , ChengleiWu , 和 re'sBruhn , Hans-PeterSeidel和Christian Theobalt。轻型双目面部表情表演捕捉下不受控制的照明。ToG,31(6):187-1,2012.8[49] Daniel Vlasic , Matthew Brand , Hanspeter Pfister ,andJovan Pop o v ic´. 多线性模型的空间转移。在ToG,第24卷,第426-433页二、四[50] Ting-Chun Wang,Ming-Yu Liu,Jun-Yan Zhu,AndrewTao,Jan Kautz,and Bryan Catanzaro.高分辨率图像合成仪613论文和语义操纵与条件GAN。在CVPR,第8798-8807页,2018年。5[51] Thibaut Weise , Sofien Bouaziz , Hao Li , and MarkPauly.基于性能的实时面部动画。在ToG,第30卷,第77页,2011中。6[52] Lijun Yin,Xiaochen Chen,Yi Sun,Worm Tony,andJ.真正的迈克尔。高解析度三维动态脸部表情资料库,2008年。在FG,第126卷,2008中。二、三[53] Lijun Yin,Xiaozhou Wei,Yi Sun,Jun Wang,andMatthew J Rosato.面部行为研究之三维面部表情资料库。在FG,第211-216页,2006中。二、三[54] Xing Zhang , Lijun Yin , Jeffrey F Cohn , ShaunCanavan,Michael Reale,Andy Horowitz,Peng Liu,and Jeffrey M Gi-rard.Bp4d自发性:高分辨率自发3D动态面部表情数据库。Image and Vision Co
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)