没有合适的资源?快使用搜索试试~ 我知道了~
Gun-Hee Lee1, Seong-Whan Lee2{gunhlee, sw.lee}@korea.ac.kr61000不确定性感知的网格解码器用于高保真度的3D人脸重建01 韩国首尔韩国大学计算与无线电通信工程系 2 韩国首尔韩国大学人工智能系0图1:我们提出了一种不确定性感知的网格解码器,用于重建高质量的3D人脸。我们的方法成功地将图形CNN和GAN用于网格解码器,同时使用不确定性感知的图像编码器以高保真度重建形状和纹理。我们的3D人脸重建结果在彩色下观看效果最佳。0摘要03D可塑模型(3DMM)是使用一组线性基函数的面部形状和纹理的统计模型。最近的大多数3D人脸重建方法旨在将3D可塑基函数嵌入到深度卷积神经网络(DCNN)中。然而,平衡全局形状的强正则化要求和高级细节的弱正则化要求仍然是一个不适定的问题。为了解决这个问题,我们通过利用不确定性的力量来适当控制正则化的普遍性和特异性。此外,我们专注于非线性的概念,并发现图形卷积神经网络(GraphCNN)和生成对抗网络(GAN)分别在重建高质量的3D形状和纹理方面是有效的。在本文中,我们提出使用(i)一个将面部特征呈现为分布的不确定性感知编码器和(ii)将图形CNN与GAN结合的完全非线性解码器模型。我们展示了我们的方法如何构建出优秀的高质量结果,并在受限制和野外图像的3D人脸重建任务上胜过先前的最先进方法。01. 引言0重建高质量的个性化3D人脸可以用于许多应用,包括人脸识别、面部动作捕捉或虚拟和增强现实。然而,从单张照片中估计3D几何和纹理仍然是一个具有挑战性的问题,这是由于有限的3D扫描数据和多个物理维度(如照明、反射和几何)之间的复杂关系。为了解决上述困难,Blanz和Vetter引入了3DMM,它依赖于额外的先验假设,如将面部约束在低维子空间中。从那时起,已经提出了许多基于3DMM的方法,并展示了令人印象深刻的结果。然而,这些方法在超出底层线性统计模型的受限低维子空间之外的泛化能力不强。0最近,许多研究都致力于将DCNN的概念引入3DMM。这种方法直接从2D图像中学习模型,以更好地捕捉野外变化并增强表示能力。然而,这些模型仍然无法为野外图像建模高保真度的形状和纹理。主要原因是The history of monocular 3D face reconstruction is quitevast where challenges in building and applying these mod-els are still active research topics. We briefly review theflow of monocular 3D face reconstruction studies from lin-ear to nonlinear approach.Linear 3DMM. The first concept of the 3DMM was builtby Blanz and Vetter [37] that used the Principal ComponentAnalysis (PCA) to represent 3D face shape and texture withlinear bases. Since then, there have been many efforts toimprove the 3DMM mechanism. Booth et al. [18] obtaineda richer PCA model with using 10,000 facial scans. Paysanet al. [31] improved previous models with using better scan-ning device and replaced the previous UV space alignmentby Nonrigid Iterative Closest Point for registration. Vlasicet al. [13] used a multi-linear model of 3D face meshes thatseparately parameterizes the space of geometric variationsdue to different attributes. Booth et al. [19] used the aug-mented model with an in-the-wild texture variations. Kop-pen et al. [32] introduced a Gaussian Mixture 3DMM thatmodels the global population as a mixture of Gaussian sub-space.Nonlinear 3DMM. To overcome the aforementioned prob-lem, recent methods focus on nonlinear decoders togo beyond the standard 3DMMs for representation ofhigh quality shape and texture.While both previousoptimization-based and learning-based algorithms relied on3D scan dataset to learn an image-to-parameter or image-to-geometry mapping[4, 17, 27], Tewari et al. [7] andTran and Liu [24] proposed a method of learning 3DMMfrom 2D images in a self-supervision scheme. As the non-linear decoder pulled up the reconstruction performance toa satisfying level, very recent studies now try to focus toreconstruct with high details. Tran et al. [26] learned ad-ditional proxies as means to side-step strong regularizationfor higher fidelity in 3D reconstruction. Gecer et al. [8] used610103D人脸重建任务仍然面临着全局形状强正则化和捕捉高级细节的弱正则化之间的冲突要求。我们发现,通过对嵌入步骤进行改变,我们可以获得特殊的正则化效果。与最近的在潜在特征空间中使用确定性点表示的3D重建模型不同,我们提出使用一个不确定性感知的图像编码器来告知解码器图像中哪些特征是不确定的。让我们举个例子。当一个人从一张图像中描述一个特定的脸时,他们只描述他们自信的面部特征。如果眼睛被遮挡,如图2所示,人们会将眼睛的特征保留为不确定信息。理想的模型会用高特异性重建自信特征和高普遍性重建不确定特征,不确定性的概念在3D人脸重建中的正则化方面变得非常重要。这些特征对输入图像的轻微变化(如遮挡、姿势或光照)也具有鲁棒性,这可能会降低3D人脸重建的性能。此外,我们专注于一个完全非线性模型,并发现图形CNN和GAN分别在重建高质量的3D形状和纹理方面是有效的。图形CNN直接在图形、流形和网格等非欧几里德结构上进行卷积操作,既能从边缘获取重要信息,又能减少计算复杂性。由于这些优势,它最近已被应用于包括3D人脸数据集在内的网格数据集。与此同时,作为纹理解码器,GAN最近被证明能够表示高保真度的纹理并自然地创建未观察到的视角。然而,它们在表示令人满意的结果方面仍然存在一些问题。在本文中,我们提出了一种考虑输入人脸特征分布并使用图形CNN和GAN的统一网络生成高质量形状和纹理的不确定性感知网格解码器。在这个过程中,我们引入了一种优化解码过程的新方法,使用多视角身份损失和不确定性感知损失,这将进一步帮助模型以高保真度重建3D人脸。本文的贡献可以总结如下:0•我们提出使用考虑人脸特征分布而不是确定性点表示的不确定性感知图像编码器,以实现适当的正则化效果。0• 我们提出了统一的解码器,将GraphCNN的详细形状与GAN的高质量纹理映射结合在一起。0•我们提出了一种新颖的损失函数,其中包括不确定性感知的感知损失和多视角身份损失,通过随机投影进一步提高3D人脸重建的性能。0图2:关注不确定性在3D人脸重建中的重要性。确定性嵌入将人脸表示为不考虑不确定特征的点估计。02. 相关工作p (zi, zj) =�p (zi|xi) p (zj|xj) δ (zi − zj) dzidzj, (1)log p (zi, zj) =− 12D�l=1�µ(l)i− µ(l)j�2σ2(l)i+ σ2(l)j+ log�σ2(l)i+ σ2(l)j�− D2 log 2π,(2)�(i,j)∈P− log p (zi, zj) ,(3)61020GAN用于以高保真度重建面部纹理。然而,该方法使用PCA估计形状,对于表示纹理的能力仍需进一步改进。Zhou等人[42]首次提出使用GraphCNN进行3D人脸重建。然而,该方法在表示令人满意的结果方面仍存在一些问题。在本文中,我们提出了一种考虑输入人脸特征分布并使用GraphCNN和GAN的统一网络生成高质量形状和纹理的不确定性感知网格解码器。03. 提出的方法0我们的新颖的3D人脸重建方法主要涵盖了两个具有挑战性的任务:(i)通过对不确定特征施加普适性和确定性来平衡术语;(ii)使用GraphCNN和GAN的统一解码器重建高保真度的3D人脸。03.1. 不确定性编码器0中性形状和肤色的理想嵌入向量z对于相同的身份应该保持一致。然而,由于输入图像x中可能存在其他外部因素或噪声(例如姿势、模糊、遮挡、白化、光照),不可能对所有图像回归出一致的z,因为不确定特征会产生不可避免的偏移。受Shi等人的工作[41]启发,我们提出了一种能够告知解码器图像中哪些特征是不确定的、具有不确定性感知的人脸编码器。这种不确定性术语还可以具有特殊的正则化效果,即模型能够在自信部分重建高保真度,在不确定部分具有高普适性。不确定性嵌入。在嵌入步骤中,我们估计了一个高斯分布,用于p(z|xi)=N(z:μi,σ^2i)0用于表示人脸形状和颜色的潜在向量,其中 µ i 是第 i个输入的最可能形状特征, σ i是与相应特征相关的置信度。假设我们知道具有相同身份的图像对的特征的 µ 和 σ。然后,我们可以测量它们共享相同潜在向量 ( z i = z j ,∆ z = 0 )的可能性,这意味着相同身份的形状和颜色是相等的:0其中 z i 和 z j 是第 i 个和第 j个输入的形状和颜色特征的潜在向量, δ ( z i − z j )是一个Diracdelta函数。然后我们使用对数似然函数,其解为:0其中 µ ( l ) i 是第 l 个特征的均值, σ 2( l ) i 是第 l个特征的方差, D是特征空间的维度。这个函数可以很容易地推导出来,两个高斯分布的差的均值为 µ i − µ j ,方差为 σ 2 i + σ 2 j。基于这个概念,我们使用这个作为训练损失来估计形状和颜色的不确定性。对于估计这个不确定性值的训练过程,我们使用类似于[ 41 ]提出的方法。首先,我们固定值 µ,通过预训练一个确定性的3D重建网络来获得。然后,给定一组具有相同身份的图像,我们单独训练一个额外的网络来估计不确定性 σ。不确定性网络是一个分支网络,与编码器的瓶颈层共享相同的输入。我们使用优化准则来最大化上述方程对于所有真实的图像对 ( x i , x j ) ,其中 x i 和 x j是相同身份的图像对。形式上,我们使用损失函数来最小化:0L不确定性 = 1 |P |0其中 P是所有真实图像对的数量。通过这个过程,网络学习如何估计不确定性 σ 。我们注意到这个特殊的 σ值可以作为特征的注意力值,并应用于损失函数。表情嵌入。对于表情嵌入,我们使用线性混合形状模型 [ 12],结合面部表情模型。我们固定这个模型,它不是从我们的工作中学习到的。80个混合形状参数 δ直接应用于解码器。03.2. 图形CNN和GAN的统一解码器0网格解码器。我们提出使用Chebyshev谱图形CNN [ 28 , 35],直接作用于3D网格,通过回归网格顶点的3D坐标来估计面部形状。它在具有预定义拓扑结构的结构化图上表现良好。一系列的图形CNN层的操作如下。一个3D面部网格可以由一个无向且连通的图 G = ( V , E ) 表示,其中 V ∈ R n × 3 是一组 n 个顶点, E是一组边, W ∈ R n × n𝒇𝝁𝒇𝒎𝒇𝒓𝒂𝒏𝒅𝒐𝒎𝒇𝝈Λ = diag ([λ0, . . . , λn−1]) ∈ Rn×n. The graph Fouriertransform of x ∈ Rn×3 is then defined as ˆx = U T x, and itsinverse as x = U ˆx. In Chebyshev Spectral Graph CNN, thegraph convolution operation is defined asgθ(Λ) =61030像素损失 + 知觉损失0形状解码器0不确定性嵌入0纹理解码器0编码器0输入图像0多视角损失0输入图像0渲染图像0渲染图像0输入图像0图3:所提方法的框架。模型将输入图像编码为投影向量和特征的分布,其中均值表示最可能的特征,方差表示相关的置信度。基于网格卷积的解码器使用这些信息来高保真度地重建3D面部。我们利用像素损失、不确定性感知损失、多视角身份损失、地标损失和重建损失。0是一个编码顶点之间连接状态的邻接矩阵。归一化的图拉普拉斯矩阵为L = In - D^(-1/2)WD^(-1/2),其中D ∈ R n × n是对角矩阵,D ii = ∑ W ij,In是单位矩阵。拉普拉斯矩阵L被傅里叶基U = [u 0, ..., u n-1] ∈ R n ×n对角化,使得L = UΛU^T,其中Λ = diag([λ 0, ..., λ n-1]) ∈ R n ×n。图形傅里叶变换的输入x ∈ R n × 3定义为ˆx = U^Tx,逆变换定义为x =Uˆx。在Chebyshev谱图CNN中,图卷积操作定义为0k =0 θ k T k ( ˜ Λ), (4)0其中θ ∈ R K是Chebyshev系数向量,T k (˜Λ) ∈ R n ×n是在缩放的拉普拉斯矩阵˜Λ = 2Λ/λ max - In处评估的k阶Chebyshev多项式。T k可以通过T k (x) =2xT k-1 (x) - T k-2 (x)的递归计算得到,其中T 0 = 1,T 1= x。谱卷积可以定义为0y j =0F in0i =1 g θ i,j ( L ) x i, (5)0其中x i是输入特征图,yj是输出特征图。基于这个概念,我们将由不确定性感知编码器提取的256维特征向量附加到3D0通过使用3D坐标作为每个顶点的输入以及输入特征,图形CNN估计每个顶点的3D坐标。纹理解码器。我们使用UV映射作为纹理表示。每个3D顶点都使用柱面展开将其投影到UV空间中。在从单个输入图像进行3D人脸重建时,不仅捕捉到高级细节非常重要,而且还要自然地创建一个未观察到的视角。特别是,使用真实纹理的UV映射训练的GAN被证明在生成真实UV的同时对未见数据具有很好的泛化能力。Gecer等人首次提出了使用GAN进行纹理解码器。我们设计的网络使用了BigGAN提出的生成器结构,BigGAN认为GAN的训练受益于大批量的训练数据。我们的网络可以生成逼真的纹理贴图。图4、5显示了与其他方法相比,我们的纹理解码器生成的纹理贴图有多逼真。03.3. 可微分渲染器0为了从估计的3D人脸重建2D人脸图像,我们使用了基于延迟着色模型的可微分渲染器[22]。通过使用重心坐标和三角形ID在像素上插值顶点属性,如颜色和法线。这种方法允许使用完全透视和任何光照模型进行渲染。使用摄像机模型将3D纹理网格投影到笛卡尔坐标系中的2D图像中。我们使用了一个利用透视变换的针孔相机模型。我们的网络可以生成逼真的纹理贴图。图4、5显示了与其他方法相比,我们的纹理解码器生成的纹理贴图有多逼真。.(10)61040变换模型。摄像机参数可以定义如下:0c = [ x p , y p , z p , x o , y o , z o , f ] �, (6)0其中[x p, y p, z p],[x o, y o, zo]分别表示摄像机位置和方向的3D坐标,f是焦距。此外,光照参数l与摄像机参数一起连接作为渲染参数,将由不确定性感知图像编码器估计。总之,渲染参数f m = [c^T,l^T]^T,大小为18的向量,由我们的不确定性感知图像编码器估计,f random包括随机选择的摄像机参数。03.4. 损失函数0我们提出了一种新的损失函数,将五个项结合在一起。它的公式如下:0L = λ pix L pix + λ unc L unc + λ view L view +λ lan L lan + λ rec L rec, (7)0我们使用λ参数对每个损失函数进行加权。我们的方法允许我们根据参数设置重建与输入图像相符的模型,以及对多样性变化具有鲁棒性的模型。我们优化所有参数以最小化我们的损失函数。像素损失。我们采用比较图像在像素空间中的原始方法,使用l1损失来定义如下:0L pix = ��I - IR��1, (8)0其中I是输入图像,IR是渲染图像。这个像素损失Lpix强制输入图像和渲染图像之间的相似性。不确定性感知的感知损失。仅仅通过像素值的相似性来优化图像,可能会导致网络产生在像素空间中非常相似但看起来不自然的人脸。从输入图像的人脸识别网络和渲染图像之间的身份特征相似性可以帮助我们的方法对多样性变化具有鲁棒性。我们使用不确定性信息作为权重来比较特征空间中的图像。该损失函数更加关注有信心的特征,有助于以更高质量重建相应的特征。0L unc = 1 |D |0l || σ2(l)i � σ2iµ(l)i - σ2(l)j � σ2jµ(l)j∥22. (9)0多视角身份损失。仅使用单个视角学习重建3D人脸只适用于观察到的视角。结果是,当从与输入图像不同的视角查看时,重建的人脸看起来不正确。通过添加具有随机投影的身份损失,我们的方法对视角具有鲁棒性。ˆIR是从随机视角拍摄的渲染图像。F(I)表示图像I的嵌入特征的不确定性。0L view = 1 - F(I) ∙ F�ˆIR�0∥F(I)∥2���F�ˆIR����20关键点损失。我们使用深度人脸对齐网络[2]M(I): RH×W×C→R68×2来检测输入图像的关键点位置,并通过更新参数将渲染的网格对齐到它上面。我们在投影和真实关键点位置之间应用l1损失。0Llan = ��M(I) - M�IR���2. (11)0重建损失。重建损失用于强制网格的形状重建。我们应用每个顶点的l1损失来计算真实形状S和预测形状ˆS之间的差异。经验上我们发现,使用l1损失比使用l2损失训练更稳定,性能更好。0Lrec = ���S - ˆS���1. (12)04. 实验结果04.1. 数据集0对于不确定性感知的图像编码器,我们使用CASIA-Webface数据集[15]对网络进行训练,该数据集包含10,575个主题和超过494k张图像。对于解码器的训练,我们使用了包括COMA数据集[6]在内的各种数据集,该数据集包含了12个不同主题的约20,000个网格,300W-LP数据集[38],其中包含约60k个大姿态的面部数据,以及CelebA数据集[43],这是一个包含超过200k名人图像的大规模面部属性数据集。我们使用来自[20]的UV贴图训练纹理解码器Biggan。我们在AFLW2000-3D[38],Casia-Webface数据集的子集以及其他各种图像上进行了定性实验。我们还使用AFLW2000-3D数据集进行了定量实验,该数据集可用于评估3D网格的比较。04.2. 不确定性消融研究0我们进行了一项实验,研究了不确定性嵌入与最新的3D人脸重建方法之间的效果,这些方法使用确定性嵌入。61050输入 Tewarran19 我们0+不确定性0Feng170图4:在AFLW2000-3D数据集[38]和CelebA数据集[43]上的3D面部重建比较。0方法 形状 纹理0线性[38] 0.0241 0.1287 非线性[25] 0.01460.0427 非线性+GL+Proxy[26] 0.0139 0.0363我们 0.0129 0.03170表1:形状和纹理表示能力的定量比较。0方法 线性[38] 非线性[25] PRNet[39] 我们0NME 5.42 4.12 3.62 2.810表2:在AFLW2000-3D数据集[38]上的面部对齐比较。0如图4所示,我们的不确定性感知方法在模型表示面部纹理方面优于最新方法。如预期的那样,将不确定性添加到特征嵌入中具有特殊的正则化效果,可以适当控制全局形状的普遍性和高级细节的特异性。04.3.与最新技术的比较0通过与其他最新方法[8, 26, 7, 22, 5,1]进行比较,我们展示了我们的模型在表示面部形状和纹理方面的能力。如图4、5所示,我们的方法在几何和纹理的高质量单眼重建方面优于所有其他方法。我们简要比较了我们的方法与8种最新技术的定性结果0在3D面部重建任务中的方法。对于线性3DMM模型,A.T.Tran等人[5]提出的方法使用DCNN估计3DMM参数。然而,由于重建子空间仍然受限于线性基础,该模型在纹理变化方面的表示能力不足。Genova等人[22]训练了一个从2D图像到3DMM坐标的回归网络,仅使用无标签图像和合成图像。他们的工作提出了三个新的损失函数,进一步帮助无监督设置下的重建任务。三个随机确定姿势的身份损失为我们提供了训练身份特征的方向,这些特征对不同变化具有鲁棒性,并减少了网格的遮挡区域的存在。然而,该模型仍然受限于线性子空间,其在表示野外纹理方面的能力有限。相比之下,我们的工作强调非线性的重要性,进一步使模型超越标准的3DMM,能够表示广泛的形状和纹理变化。Jackson等人[1]尝试通过训练一个从2D图像到体素坐标的回归网络来避免使用线性3DMM先验知识,该网络具有一个具有跳跃连接的沙漏结构。虽然与线性模型相比,这种策略在探索解空间方面具有更大的潜力,但表面不平滑且缺乏保留细节的能力。此外,体积方法丢弃了网格的关系,而我们则使用图形CNN有效处理面部网格。然而,由于模型从图像中估计出UV位置图时的不可避免的平滑效果,面部的细节会消失。Feng等人61060输入图像0我们的0Gecer190L.Tran190Tewari180Genova180A.T.Tran170Jackson170图5:与其他最新的3D面部重建方法的定性比较。该图展示了我们的模型在表示面部形状和纹理方面的能力。0al.[39]提出了一种直接的方法,通过回归称为UV位置图的2D表示来同时重建3D面部几何。然而,由于地图回归的必然平滑效果,面部的细节会在模型从图像中估计出UV位置图时消失。再次,我们的工作使用特征不确定性和图形CNN来平衡网格域上的正则化,从而帮助重建具有高细节的形状以获得自信的特征。0A.Tewari等人[7]采用了一种自我监督方案,摆脱了额外的先验知识,如统计学0从有限的3D面部数据中学习的面部模型。将3DMM基函数嵌入到DCNN中,将3DMM的正则化优势与学习的校正空间的超出空间泛化相结合。虽然这种模型可以恢复比现有的基于3DMM的方法更多的细节,但模型训练的过程附带有强正则化,这限制了它们对面部高级细节的纹理表示能力。我们的模型有效地处理这种正则化,以创建高保真度的3D面部模型。0与我们提出的方法最相关的工作是TranIn this paper, we present an uncertainty-aware mesh de-coder which uses uncertainty information to improve 3Dface reconstruction task. Our method ensures the decodersto see the uncertain features that can further balance gen-erality and specificity of each features.We also decodeshape directly on the mesh domain which is later combinedwith the generated texture map, where this unified modelboost the performance and is suitable to reconstruct bothconstrained and in the wild images with high details. Ourmethod outperforms previous state-of-the-art methods andthis work can be a step toward finding effective feature em-bedding techniques for 3D face reconstruction.61070图6:CASIA-Webface的重建结果。回归网络对噪声、模糊、遮挡和姿势的变化具有鲁棒性。0等人[26]和Gecer等人[8]。Tran等人[26]提出了一种学习额外代理以避免强正则化的方法,并利用这些代理来促进详细的形状和反照率。这种方法在学习目标和网络架构上改进了非线性3D可塑模型,有效地捕捉了高级细节。然而,我们的方法通过在基于图的结构上直接进行卷积并将其与GAN模型结合使用,为形状和纹理创建了更高级别的细节。此外,我们的模型使用不确定性信息而不是学习额外的代理来放松正则化。Gecer等人[8]利用GAN的能力来以高保真度表示面部纹理。GANFIT利用GAN在UV空间训练一个非常强大的面部纹理生成器。与我们的工作一样,我们也利用GAN模型的能力来创建高质量的纹理映射,将纹理集成到图形CNN的网格中,并使用特征的不确定性来平衡泛化和特异性的术语。04.4. 结果的附加研究0对模糊和遮挡具有鲁棒性。为了更好地理解不确定性嵌入的能力,我们还进行了一个实验,从模糊的图像中重建3D面部。我们将不确定性感知损失的权重设置为较大,以使我们的模型对各种变化具有鲁棒性。如图6所示,我们的网络产生的结果对噪声、模糊、遮挡和极端姿势的变化具有鲁棒性。我们表明,考虑不确定性可以为单个主体在不同条件下带来鲁棒性,并显示出一致的输出。对视点具有鲁棒性。我们研究了身份损失对视点的影响,该损失度量输入图像与使用随机投影向量渲染的图像之间的距离。如图7所示,来自未观察视点的图像看起来自然。我们的方法在重建包括未观察区域在内的所有面部区域时具有鲁棒性。0图7:使用多视角身份损失进行正面/侧面视图的重建结果。我们的模型在重建包括未观察区域在内的所有面部区域时具有鲁棒性。0在本文中,我们提出了一种利用不确定性信息改进3D面部重建任务的不确定性感知网格解码器。我们的方法确保解码器能够看到不确定的特征,进一步平衡每个特征的普遍性和特异性。我们还直接在网格域上解码形状,然后与生成的纹理映射相结合,这种统一模型提高了性能,并适用于具有高细节的受限和野外图像的重建。我们的方法优于先前的最先进方法,这项工作可以为3D面部重建的有效特征嵌入技术的发现迈出一步。05. 结论0确认0本工作得到了韩国政府(MSIT)信息通信技术规划与评估研究院(IITP)资助(编号2019-0-00079,韩国大学人工智能研究生院项目,编号2019-0-01371,开发具有人类智能的脑启发式人工智能,编号2014-0-00059,开发预测性视觉智能技术)。61080参考文献0[1] Aaron S. Jackson, Adrian Bulat, Vasileios Argyriou, andGeorgios Tzimiropoulos.通过直接体积CNN回归从单张图像进行大姿态3D面部重建.在ICCV, 2017. 60[2] Adrian Bulat and Georgios Tzimiropoulos.我们离解决2D和3D面部对齐问题有多远?(以及一个包含23万个3D面部标记的数据集). 在ICCV, 2017. 50[3] Andrew Brock, Jeff Donahue, and Karen Simonyan.用于高保真度自然图像合成的大规模GAN训练. 在ICLR, 2019. 40[4] Anh T. Tran, Tal Hassner, Iacopo Masi, and Gerard Medioni.使用深度神经网络回归稳健且具有辨别性的3D可塑模型. 在CVPR,2017. 20[5] Anh T. Tran, Tal Hassner, Iacopo Masi, Eran Paz, YuvalNirkin, and Gerard Medioni. 极端3D面部重建:超越遮挡.在CVPR, 2018. 60[6] Anurag Ranjan, Timo Bolkart, Soubhik Sanyal, andMichael J. Black. 使用卷积网格自编码器生成3D面部. 在ECCV,2018. 2, 50[7] Ayush Tewari, Michael Zollhofer, Pablo Garrido, FlorianBernard, Hyeongwoo Kim, Patrick Perez, and ChristianTheobalt. 自监督多层面部模型学习,单目重建速度超过250 Hz.在CVPR, 2018. 2, 6, 70[8] Baris Gecer, Stylianos Ploumpis, Irene Kotsia, andStefanos Zafeiriou. Gan�t:用于高保真度3D面部重建的生成对抗网络拟合. 在CVPR, 2019. 2,4, 6, 80[9] Bindita Chaudhuri, Noranart Vesdapunt, and BaoyuanWang. 多人脸的联合人脸检测和面部动作重定位. 在CVPR, 2019.10[10] Bon-Woo Hwang, Volker Blanz, Thomas Vetter, andSeong- Whan Lee. 从少量特征点进行面部重建. 在ICPR, 2000. 10[11] Brian Amberg, Reinhard Knothe, and Thomas Vetter.使用可塑模型的表情不变3D面部识别. 在FG, 2008. 10[12] Chen Cao, Yanlin Weng, Shun Zhou, Yiying Tong, andKun Zhou. Facewarehouse: 用于视觉计算的3D面部表情数据库.在IEEE TVCG, 2014. 30[13] Daniel Vlasic, Matthew Brand, Hanspeter P�ster, and JovanPopovic. 使用多线性模型进行面部转移. 在ACM Trans. Graph.,2005. 1, 20[14] Dihua Xi, Igor T. Podolak, and Seong-Whan Lee.使用支持向量机进行面部组件提取和人脸识别. 在AFGR, 2002. 10[15] Dong Yi, Zhen Lei, Shengcai Liao, and Stan Z. Li.从零开始学习面部表示. 在CoRR, 2014. 50[16] Florian Schroff, Dmitry Kalenichenko, and James Philbin.Facenet: 用于人脸识别和聚类的统一嵌入. 在CVPR, 2015. 10[17] Hyeongwoo Kim, Michael Zollhofer, Ayush Tewari, JustusThies, Christian Richardt, and Christian Theobalt. Inverse-facenet: 深度单目逆向面部渲染. 在CVPR, 2018. 20[18] James Booth, Anastasios Roussos, Stefanos Zafeiriou,Allan Ponniah, and David Dunaway.从1万张脸学习的3D可塑模型. 在CVPR, 2016. 1, 20[19] James Booth, Epameinondas Antonakos, StylianosPloumpis, George Trigeorgis, Yannis Panagakis, and StefanosZafeiriou. 野外的3D面部可塑模型. 在CVPR, 2017. 1, 20[20] 邓建康,程世阳,薛念南,周宇翔和StefanosZafeiriou。UV-GAN:用于姿态不变人脸识别的对抗性面部UV映射完成。在CVPR,2018年。50[21]曹凯迪,荣宇,李成,唐晓欧和陈长乐。通过深度残差等变映射实现姿态鲁棒人脸识别。在CVPR,2018年。10[22] Kyle Genova,Forrester Cole,Aaron Maschinot,AaronSarna,Daniel Vlasic和William T.Freeman。无监督训练3D可塑模型回归。在CVPR,2018年。4,60[23] Liuhao Ge,Ren Zhou,Yuncheng Li,Zehao Xue,YingyingWang,Jianfei Cai和JunsongYuan。从单个RGB图像估计3D手部形状和姿势。在CVPR,2019年。20[24] Luan Tran和XiaomingLiu。非线性3D面部可塑模型。在CVPR 2018年。20[25] Luan Tran和XiaomingLiu。从野外图像学习3D面部可塑模型。在TPAMI,2019年。60[26] Luan Tran,Feng Liu和XiaomingLiu。面部非线性3D可塑模型。在CVPR,2019年。2,6,80[27] Matan Sela,Elad Richardson和RonKimmel。使用图像到图像转换进行无限制的面部几何重建。在ICCV,2017年。20[28] Michael Defferrard,Xavier Bresson和Pierre Van-dergheynst。具有快速局部化谱滤波的图上卷积神经网络。在NeuriPS,2016年。30[29] Nanyang Wang,Yinda Zhang,Zhuwen Li,Yanwei Fu,WeiLiu和Yu-GangJiang。Pixel2mesh:从单个RGB图像生成3D网格模型。在ECCV,2018年。20[30] Nikos Kolotouros,Georgious Pavlakos和Kostas Dani-ilidis。用于单幅图像人体形状重建的卷积网格回归。在CVPR,2019
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- 中文翻译Introduction to Linear Algebra, 5th Edition 2.1节
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功