没有合适的资源?快使用搜索试试~ 我知道了~
4237从野外退化图像中学习恢复三维人脸张振宇1,葛艳浩1,戴颖1,黄晓明1,王成杰1,唐昊2,黄东进3,谢志峰3腾讯优图实验室,中国上海1瑞士苏黎世联邦理工学院CVL2上海大学zhangjesse@foxmail.comhao. vision.ee.ethz.ch黄xie@shu.edu.cn峰,黄志峰jasoncjwang@tencent.com摘要+45°-45° 0°在野外3D人脸建模是一个具有挑战性的问题,因为当输入图像退化时,预测的面部几何形状和纹理缺乏可靠的线索或先验知识。为了解决这个问题,在本文中,我们提出了一个新的学习恢复(L2R)的3D人脸框架,从低分辨率图像的无监督高质量的人脸重建。而不是直接细化2D图像GT输入我们Unsup3D Unsup3D + DFDNet电子邮件:info@dfdnet.comUnsup3DUnsup3D+DFDNet圈企业简介我们0.70.750.8零点八五0.9零点九五L2R学习通过提取生成的面部先验来恢复代理上的细粒度3D细节,以防止退化。具体地说,L2R提出了一种新的神经网络恢复网络来建模高质量的3D面部纹理,其中利用来自预训练的遗传对抗网络(GAN)的多样化指导来补充输入面部线索的缺乏。利用恢复的3D纹理的更精细的细节,L2R然后从头开始学习位移图,以增强重要的面部结构和几何形状。这两个过程都通过一种新的3D感知对抗损失进行了相互优化,这进一步提高了建模性能并抑制了潜在的不确定性。大量的基准实验表明,L2R优于国家的最先进的方法在低质量的输入条件下,并获得优于2D预处理建模方法与有限的3D代理的性能。1. 介绍近二十年来,三维人脸重建技术得到了迅速发展,其应用领域包括人脸数字化、动画制作和生物特征识别等 。 第 一 个 突 破 性 的 努 力 应 该 是 3D 变 形 模 型(3DMM)[8],它为建模提供了合理的几何配置。基于此,重建可以*Chengjie Wang和Zhifeng Xie为通讯作者(a) 不同方法的可视化结果(b)交叉视图几何建模精度图1.非参数方法的实验分析(a) 降级输入下的视觉比较(b)MICC [5]数据集上的跨视图尺度不变深度误差,其中我们使用模型从当前姿势的图像预测几何形状,并对其他两个姿势的图像执行测试。我们使用DFD- Net [37]对退化图像进行预处理。Unsup3D [58]和Unsup3D [67]受到输入降级的影响,并且从2D外观增强方法中获得的好处有限。相比之下,我们的方法模型更详细的预测,并显示出更鲁棒的交叉视图验证的性能详情请参阅通过优化低维参数来实现[46,47]。随着深度学习的发展,最近的工作利用神经网络从2D图像回归3DMM参数[45,70]。虽然基于3DMM的方法进一步改进了非线性[19,25,53- 55,60,69 ]和多视图一致性[ 6,10,52,57,61 ],但它们仍然存在几个缺点:有限数量的对象(例如,BFM [44],200名受试者),具有受控条件,难以构建皮肤细节,解剖接地肌肉[16]和身份的大变化[71]。因此,对潜在不稳定性进行了非参数建模,其回归面为正态分布 或深度直接从输入图像没有3DMM假设[3,49]。最近的作品[42,58]将人脸分解为内在因素,并通过渲染以无监督的方式完成规范重建4238×[34 ]第34话损失 虽然非参数方法捕获更详细和独特的面部结构,他们通常suf-非参数监督3D纹理降级输入MOFA [54]、DECA [19]×I、关键点C×RingNet [48],MVF [57]×I,关键点× ×由于面部线索仅限于[25]第二十四话:一个人[63]第63话:我的世界×I,关键点C CI、3D扫描× ×由没有3DMM先验的输入图像提供。如图1,退化的输入显著降低重构精度。在实际应用中,野外人脸图像往往由于设备不理想或占整个场景的比例较低而分辨率和质量较低。最重要的是,我们认为,针对退化图像的高质量人脸建模对于非参数方法是实用和关键的。为了解决这个问题,一种直接的方法是使用预先训练的超分辨率模型[37,40]来处理降级图像。然而,这些模型仅处理2D外观,但未能增强固有的3D线索。如图所示。1、二维预处理不能很好地提高三维重建精度,表现出不满意的视觉效果和脆弱的姿态变化性能。虽然3D纹理完成方法[22,68]修复了缺失的面部区域,但它们无法增强几何形状。在本文中,我们提出了一种新的学习恢复(L2R)的三维人脸框架,以提高对有限的图像质量的三维人脸建模。 L2R实现了这样的目标 通过从预训练的GAN中挖掘2D面部先验,用于传播3D纹理/几何线索。该框架是在一个共同的范例进行迭代提升3D纹理和几何建模从一个简单的代理。具体而言,为了用合适的内容和3DUV位置来约束生成的纹理,L2R对输入图像进行编码,并将其代理到StyleGAN [33]生成器,分别提供样式代码和空间先验。通过这种方式,L2R敦促StyleGAN预测各种线索,以建模逼真的3D模型,超越退化的输入。此外,受益于3D纹理,L2R学习高分辨率面部形状和位移图,以增强面部细节,而无需预先定义拓扑。由于3D纹理和几何建模通过渲染相互补充,我们通过一种新的3D感知的对抗性损失来相互优化这两个过程,从而提高了预测的一致性。大量的实验表明,L2R模型优越的纹理和几何从低分辨率的图像比国家的最先进的和2D预处理的方法,并获得竞争力的结果模型没有退化。本文的主要贡献如下:i) 提出了一种新的学习恢复(L2R)三维人脸框架,以无监督的方式从退化图像中建模高质量的三维人脸。与2D表观处理方法相比,L2R能够增强纹理和几何重建上的固有3D线索。ii) 通过一种新的面部恢复网络,L2R挖掘2D生成面部先验,以补充面部线索的缺乏,并对3D精细纹理进行建模。iii) 基于恢复的3D纹理,L2R使用新颖的几何细化网络来建模详细的面部深度[58]第五十七届中国国际航空航天 博览会OurCIC C表1.在设置上与选定的最新方法进行比较。我指的是2D图像。大多数方法不处理退化输入的情况。并增强了3D代理。2. 相关作品在表1中,我们比较了最近的3D人脸建模方法,其中我们的方法在没有形状假设的情况下处理了更具挑战性的设置,并从退化的输入图像中建模3D人脸。3D人脸重建:作为一个长期存在的问题,3D人脸重建首先由3DMM开发[8,46]。这些基于优化的方法通过深度神经网络进一步改进[15,20,38,45,70]。使用可微分渲染器[34],模型利用图像重建损失来摆脱地面真实依赖性[26,54]。Recently, 3DMM approaches arefurther improved with non-linearity [19, 25, 53, 60, 69]and multi-view consis-tency [14,52,57].为了提高超过3DMM的精度,非参数方法,例如,shape from shading算法[64]也能够在没有3DMM假设的情况下对3D人脸进行建模。随着深度学习的成功,SFS-Net [49]改进了这种算法,用于对内在面部因素进行建模。还提出了数据驱动方法[3,30,63但是,它们不能对全面的3D几何体建模。最近的作品[58,67]使用弱对称约束来预测面部图像的典型内在因子。GAN2Shape[42]避免了这种对称约束,但带来了繁重的逐图像优化。LiftedGAN [51]将框架转换为生成模型,但也需要优化以解决现实世界的图像。虽然这些非参数方法不能处理低质量的输入图像,但我们的方法在具有挑战性的条件下改进了3D建模。此外,我们的方法是以端到端的方式进行的,而不需要对每幅图像进行训练。3D纹理完成:面部纹理合成已被广泛研究[21,25,50]。然而,由于单目图像的模糊性,这些方法的性能受到限制。因此,提出了从可见的面部外观中修复纹理的方法[12,24]。最近,[68]提出了一个通过旋转和渲染完成的框架。[23]提出了一种新的使用2D人脸生成器的一次性完成方法。总之,这些方法需要高质量的输入、逐图像优化,并且不能改善面部几何形状。相比之下,我们的C4239∈∈∈∈i=1≈≈i=1LL(I,I,σ)=− |Ω|ln2σ exp−、(3)σ∈--该方法解决了低分辨率输入、几何细化问题,实现了端到端的推理。GAN反转:图像可以嵌入到预训练的StyleGAN的潜在空间中[32,33],并从[1,2,7]开始努力。基于这种方法,提出了恢复退化图像的方法[28,43]。在实践中,这种反演模型需要额外的优化过程,或缺乏空间约束,只依赖于样式代码。相比之下,我们的方法不需要额外的优化,并提供了紫外空间指导纹理生成。3. 学习3D代理我们的L2R能够提高3D代理的质量,防止图像退化。理论上,这种代理可以是任意的非参数模型。在这里,我们选择Un-sup 3D [58]作为3D代理,因为它不需要监督,限制约束和培训成本。如第1、Unsup3D存在输入图像的噪声和模糊问题,预测出的三维模型真实感和一致性较差。然而,它提供的UV关系可以被L2R利用来指导高质量的纹理和几何形状生成。Unsup3D将面部图像I分解为包括规范深度图d的内在因素(d,a,ω,lR~+是一个典型的双曲象R3,全局光方向1S2和视点ωR6。每个因子由一个单独的网络预测,我们将其表示为Φd,Φa,Φω,Φl。然后,可以如下通过照明Λ和光栅化Λ使用这些因子来重建3D面部:I=(一)[34]这是一个很好的例子。通过图像重建损失进行学习,ˆI. 为了表示完整的正面并获得规范的深度/深度,框架通过水平平移利用弱对称约束:<$I′=<$(Λ(a′,d′,l),d′,ω),(2)其中a′和d′是a,d的压缩版本。与此同时,我的目标“我”也受到鼓励。由于实际面可能是不对称的,因此该框架预测置信度图σ、σ′R+乘以Φσ,并校准损失如下:4. 学习恢复3D面部在本节中,我们主要描述所提出的学习恢复3D人脸(L2R)框架。给定低分辨率图像,我们的目标是挖掘2D生成面部先验,以进行细粒度3D纹理和几何建模。如 图 2 and 3, the framework has two mod- ules: AlbedoRestorationNetwork(ARN)andGeometryRefiningNetwork (GRN).我们进一步提出了一个3D现实损失,以提高预测的3D一致性,并引入了一个相互学习的策略,有效的优化。4.1. 反照率恢复网络为了解决输入图像的退化问题,最近的作品[9,28]表明预训练的StyleGAN [32,33]能够提供补充的前科然而,StyleGAN只包含2D纹理线索,并且难以生成解耦 的 3D 信 息 。 因 此 , 我 们 提 出 了 ARN , 它 促 使StyleGAN提供3D规范化的面部表情符号线索。ARN如图所示。2.风格码和空间引导分别保证输入图像的内容和明确的3D位置。样式代码注入:为了保证恢复后的图像具有与输入图像I相适应的特征,需要提取相应的风格码来指导预先训练好的StyleGAN。我们使用一个风格编码器与相同的architec-如Φd,Φa的那些,从I得到高级特征,然后使用与[33]相同的全连接映射网络来获得风格代码c。这里我们预测多个代码,即,对于具有n个阶段的StyleGAN,我们生成代码为cin。我们将代码c i注入到i的AdaIN[29]中,th样式转换层。通过这种方式,StyleGAN在每个阶段获得“样式”,这有助于生成具有合适的多级属性的先验。注意,与版本内方法[1,2]不同,我们不要求样式代码严格恢复I,而是提供合理的面部信息。空间引导注入:ARN的预测应该在规范视图中作为一个o来表示3D全脸纹理,因此StyleGAN应该被引导来生成UV空间中的先验。为了实现这一点,我们提取的功能,作为空间的指导,从EQUIPDO代理如示于图二、该编码器具有与Φ a相同的结构,其提取多尺度特征,表示为空间引导{gi}k.然后,我们将空间引导传播到√ˆ1Σ12|I−I|StyleGAN的前k个相应阶段 表示f i是第i个StyleGAN阶段的输入功能,空间向导,其中Ω是归一化因子。还计算了压缩版本(σI′,I,σ′)。在这种方式中,3D面部以无监督的方式从图像建模,而不需要3DMM假设对于清晰度,我们将ao,a′o,do,d′o表示为预测的深度/深度代理,并将lo,ωo表示为光线/视点代理。降级的输入和高分辨率的基础真值表示为I,Igt.其中fi′是StyleGAN的conv-layer的输出。我们只将指导注入到StyleGAN的早期阶段,因为向更高层传播Paddo代理的功能可能会应用太多的依赖性并限制生成的先验的质量。以这种方式,StyleGAN获得UV关系以提供规范的3D面部先验。先前解码器: 为了进一步组织信息,安斯注射液可以用公式表示为=Conv([gi,fi]),4240空间引导输入图像I渲染器空间Guu idd ancence.h=i−1我×∈RR我i=1引导注射阿尔贝多·普赖尔斯3D代理网络或GRN反照率代理值a输入I32x32反照率编码器...Style EncoderStyleGAN((nstagesnstages))样式代码注入先验解码器恢复的反照率256x256恢复图像Ir256x256图2.建议的反照率恢复网络的概述 空间引导和样式代码分别从原始的规范图像和低分辨率图像I中提取,然后馈送到预训练的StyleGAN。 风格代码帮助StyleGAN生成与目标风格相似的先验,空间指导约束预测的UV关系以生成3D全脸模型。然后,StyleGAN的更高级别层的面部先验被馈送到先验解码器中以预测恢复的面部特征。恢复的图像Ir可以通过等式1用3D代理do、lo和ωo渲染。(一). StyleGAN的层在训练期间被冻结。由StyleGAN层提供,我们提出了一个先验解码器来处理输出特征。由于StyleGAN的更高层的信息与图像外观更相关,因此我们利用StyleGAN的最后m个阶段的输出特征作为面部先验。如示于图 2,我们将先验表示为{p}m。然后,先验被馈送到先验解码器中,恢复纹理trRefined Normalnr生成最终的恢复数据。现有的解码器可以普通代理服务器否输入图像I位移贴图m公式如下:Conv(pi),i= 1iConv([h,p]),否则为(四)图3.几何细化网络(GRN)。利用编码器-解码器网络从输入I、法向代理no和恢复的规范纹理tr预测纯法向n和位移映射m。 精化几何nr由下式生成:其中hi是StyleGAN的conv-layer的输出特征。在每个卷积层之后,我们对hi进行上采样以匹配特征尺寸。ar用于重新渲染高分辨率图像,我们通过等式1表示为Ir,其中代理ωo和深度do。(1)、(2)。在我们的方法中,我们恢复的大小为256 256。原因是在没有监督的情况下对更高分辨率的3D纹理进行建模是具有挑战性的,并且会导致巨大的训练和渲染负担。因此,我们使用比原始输入大8倍的合理大小来分析我们的方法。4.2. 几何细化网络如第1、二维外观增强不能提供直接有利于几何建模的三维纹理线索因此,我们提出了几何细化网络(GRN),以利用恢复的3D纹理线索进行详细的面部形状建模,如图所示。3.第三章。利用编码器-解码器网络从输入I、正常代理no和恢复的规范结构tr预测几何形状。在这里,来自tr的特征在规范视图中提供高质量的3D纹理线索,而I和n〇给出原始域中的先验在实践中,我们发现,仅预测纯深度/法线不能很好地重建面部等式(5)详细的三维位移。为了更好的可视化,我们显示正常而不是深度。我们以非参数化的方式来做。在规范视图中生成位移映射m[h,w,3]。然后,我们将学习的纯深度d投影到3D UV空间以获得Duv∈[h,w,3],并利用m来增强它,如下所示:Duv=Duv+mn,(5)其中n是从d得到的法线映射。以这种方式,我们得到3D详细形状Duv,其可以用于增强等式1中的照明Λ和重投影Λ。 (二)、4.3. 培训除了方程中的损失函数之外,(3)为了提高三维建模质量,提出了一种跨视图一致性损失方法。我们使用随机采样的ωstec,lstec重新渲染恢复图像,并将其表示为Istecr。获取高分辨率地面实况Igt,我们使用对抗损失[4],具有相同的BND[33]以比较Istecr和Igt。该对象可以是公式-纯正态n……...样式代码代码%4241G日期为:Lc=min maxE[ log (D ( Igt ) ]+E[ log ( 1-D ( G(Istec r))],(6)细节,但产生过于平滑的结果。因此,我们学习dis-GD布局图来明确地对精细细节进行建模。这种想法受到基于3DMM的方法的启发[11,18,59],但这里是我们的生成器框架。为了抑制预测位移图中的伪影,我们使用拉普拉斯平滑-4242i=1i=1××××××−±××ness正则化,可以表示为|M|. 从原始图像中提取4×4~32×32的最终特征损失公式为:因此,我们在{g i}k中 使 用 k=4 。先验是来自64×64到1024×1024,因此我们在{pi}m中设置m = 4。为Lall=L ( II , Igt , σ ) +L ( II′ , Igt , σ′ )+αLc+βc|M|、(7)其中α、β是加权常数。我们提出的ARN和GRN,恢复详细的三维纹理和几何退化的图像。实际上,ARN和GRN的建模过程是相互复杂的:更好的纹理为几何重建提供了可靠的线索,而更精细的形状细节有助于通过绘制过程进行外观预测。因此,我们提出了一个相互学习的策略,以促进优化 。 我 们 首 先 优 化 ARN , 然 后 用 冻 结 的 ARN 训 练GRN。在该阶段期间,我们直接使用从Φω,Φ1预测的ω0,1。然后对ARN、GRN和Φω、Φl进行联合优化,使纹理和几何建模的性能相互提高通过这种策略,减少了内在学习的模糊性,并成功地将StyleGAN的详细线索传播到整个建模过程中。5. 实验数据集。在Unsup3d [58]之后,3D代理的模型在CelebA [ 39 ]上进行了预训练,CelebA具有20万个野生人脸图像。我们分别选择160 k/20 k/20 k图像作为训练集/验证集/测试集。 一旦准备好3D代理,我们就在CelebAMask-HQ [36]和FFHQ数据集[32]上训练L2 R,其 中 分 别 包 含 1024 1024 的 30 k 和 70 k 图 像 。 对 于FFHQ,我们随机选择30k图像以减少训练时间负担。最终数据集与60 k图像相结合,其中我们选择40 k/10 k/10k作为训练/验证/测试。图像大小调整为256 256作为高质量的地面实况Igt,并进一步调整大小为32 32,具有不同的模糊和平滑作为降级的输入I。为了评估面部几何形状,我们对3DFAW [27,31,65,66],BFM [44]和Photoface [62]数据集进行了测试。3DFAW包含具有66个3D关键点注释的23k图像,并且我们使用与[ 58 ]相同的协议来计算用于测试的深度相关性度量。对于BFM数据集,我们使用[ 58 ]发布的相同生成数据来评估预测的深度图。Photoface数据集包含453个人的12 k张图像,具有面部/正常图像对,我们遵循[3,49]的协议来评估建模面部正常的质量。实施详情。我们使用与[ 58 ]相同的Φω、Φ1的架构来预测姿态和光。对于在输出大小为256 256时学习置信度图,我们使用类似的网络Φσ,但具有额外的上采样转换 操 作 。 我 们 使 用StyleGAN2 [33] , 它 在 ARN 中 的FFHQ 1024 1024上进行了正式的预训练,以提供生成的面部先验。该模型包含9个阶段,因此我们在图1的样式代码注入中设置n = 9。二、空间指导包含512 512和1024 1024的先验,我们将它们下采样到256256以匹配输出大小。最后的损失在等式中(7),我们设α,β=0。1.一、为了优化L2R框架,我们首先训练ARN 30个epoch,然后冻结ARN并再训练GRN 30个epoch。ARN和GRN的最终相互学习执行20个epoch。学习由Adam solver [35]进行,学习速率为1e4,批次大小为16,在一个NVIDIA Tesla V100 GPU上。更多细节可在附录中找到。评价方案。对于预测的面部几何形状,遵循[58,67],我们使用尺度不变深度误差(SIDE)[17]和平均角度偏差(MAD)来评估深度和法线。为了评估建模纹理,我们计算了地面实况图像和渲染图像之间面部区域的结构相似性指数(SSIM)[ 56 ]。为了评估反射的跨视图一致性,我们渲染原始和正面姿势的图像,45°的偏航角和俯仰角,并计算原始高质量图像之间的Arcface[ 13 ]编码表示的平均余弦相似性。为了公平地评估余弦相似性,我们使用与Arcface相同的裁剪协议来处理图像。所有评价均在256×256的比例尺上进行。5.1. 消融研究几何:在这一节中,我们首先分析了如何提出的方法在实现几何建模。结果如表2所示。我们的完整模型获得最佳性能。曲线(2)-(6)和(7)-(9)分别揭示了ARN和GRN的影响。在第(2)行中,我们观察到即使使用相同的架构,缺乏预先训练的StyleGAN先验也会显著增加错误。这种现象也表明L2R成功地利用StyleGAN中包含的面部线索来提升几何建模。在第(3)行中,我们删除了StyleGAN,但应用DFDNet [37]对低分辨率图像进行预处理作为输入。这种方法带来了更低的错误,但仍然比我们的完整方法更糟糕。该实验表明,仅预处理2D外观不能解决来自降级图像的3D重建,而StyleGAN提供可靠的面部先验来补偿线索的缺乏。第(4)-(6)行揭示了ARN中提出的组件也有助于更好的性能。在行(7)中,我们观察到恢复的图像起着重要的作用,其为更精细的重建提供了补充细节。此外,线(8)揭示了位移图增加了超出纯法线的准确性,而线(9)证明了我们在方程(10)中的交叉视图损失的有效性。(七)、我们在图中进一步进行了视觉比较。4.第一章输入图像是模糊的,并且3D代理遭受这种降级。4243↑↑↑×号方法侧(×10−2)↓MAD(度)↓(1)0.710±0. 13914.70±1. 16(2)不含StyleGAN,之前为0.802 ±0. 16817.03 ±1. 65(3)无StyleGAN先验+DFDNet [37]0.729 ±0. 14515.14 ±1. 52(4)w/o多样式代码0.735 ±0. 12415.86 ±1. 50(5)无空间引导0.732 ± 0.732。13816.19 ±1. 63(6)无前级解码器0.728 ±0. 12915.63 ±1. 58(7)无恢复图像0.776 ±0. 17816.57 ±1. 49(8)无位移标测0.725 ± 0.725。17815.21 ±1. 34(9)无交叉视野损失0.727 ± 0.727。14015.01 ±1. 32表2.与BFM数据集基线的比较GT输入代理,不含先前的,不含我们的GRN图5.模型纹理的烧蚀研究号方法侧(×10−2)↓MAD(度)↓(1)我国的0.710±0. 13914.70±1. 16(2)Unsup3D[58]0.901 ±0. 17018.52 ±1. 58(3)Unsup3D原点0.793 ±0。14016.51 ±1. 56(4)GAN2Shape[42]0.827 ±0. 17015.93 ±1. 50(5)GAN2形状原点0.756 ±0. 15216.82 ±1. 47(6)[67]0.856 ±0. 14216.77 ±1. 33GT输入代理无先验w/o dis-map Ours(7)原点0.721±0. 12815.53±1. 42图4.对模型几何结构进行消融研究号MethodCosine-SimilaritySSIM(1)我们的满额(2)不含StyleGAN之前0.631 0.528(3)w/o多样式代码0.667 0.641(4)无空间指导(5)无前置解码器0.690 0.644(6)无GRN 0.703 0.657(7)无交叉视野损失0.707 0.671表3.与纹理建模基线的比较在没有StyleGAN先验的情况下,该模型预测了缺乏明显3D结构的过度关注的结果。此外,在没有位移图的情况下,预测是过平滑的。相比之下,我们的方法的预测是细粒度的,具有眉毛,眼睑和皱纹的细节。纹理:然后,我们在具有高分辨率地面真实的测试集上对纹理建模进行消融研究。结果示于表3中。我们的完整方法获得最佳性能。在第(2)行中,我们观察到删除StyleGAN先验会导致准确性显著降低。这些结果提供了一致的结论,即L2R很好地传播了面部线索。在第(3)-(5)行中,我们观察到ARN中提出的模块也有助于提高准确性。此外,线(6)揭示了更好的几何建模也由于它们在渲染中的相互依赖性而提高了纹理质量,并且线(7)揭示了我们的交叉视图损失的有效性。我们还在图中进行了视觉比较。五、代理遭受输入图像的模糊。如果没有StyleGAN先验知识,建模纹理的质量也会受到限制。预测包含噪声而没有GRN,这表明L2R中的几何建模很好地促进了通过渲染过程的纹理重建。相反,我们的完整模型产生更清晰和详细的纹理。5.2. 与最新方法的在本节中,我们将L2R与最新的最先进的方法进行比较。在没有特别声明的情况下,表4.BFM数据集上最先进方法的结果号方法深度校正时间(ms)(0)地面真理66-(1)MOFA [54](基于3DMM)15.97-(2)D3 DFR [14](基于3DMM)50.05-(3)DECA [19](基于3DMM)51.93-(4)[41]第四十一话(5)Unsup3D [58] 49.28 0.6(6)Unsup3D + DFDNet 52.43 0.6(7)Unsup3D原点54.64 0.6(8)[67] 2019 - 05 - 01(9)DFDNet 56.25 2.0(10)最低价格57.92 2.0(11)我们的57.961.6表5.3DFAW关键点深度评估。方法MAD↓20<$↑25<$↑30<$↑<<
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功