没有合适的资源?快使用搜索试试~ 我知道了~
基于梯度方向的锚定无符号距离函数的单视图服装重构
12674基于梯度方向对齐的锚定无符号距离函数的单视图服装重构方昭1王文浩2廖胜才1*凌少1、31InceptionInstitute of Artificial Intelligence2悉尼科技大学ReLER3穆罕默德·本·扎耶德人工智能摘要虽然近年来单视图三维重建已经取得了重大进展,受益于深形状表示,服装重建仍然没有很好地解决,由于开放的表面,多样的拓扑结构和复杂的几何细节。在本文中,我们提出了一种新的可学习的锚定无符号距离函数(AnchorUDF)表示的三维服装重建从一个单一的图像。AnchorUDF通过预测无符号距离场(UDF)来表示3D形状,以实现任意分辨率的开放式曲面建模。为了捕获不同的服装拓扑,AnchorUDF不仅计算查询点的像素对齐的局部图像特征,而且还利用位于表面周围的一组锚点来丰富查询点的3D位置特征,这为距离函数提供了更强的此外,为了在推断时获 得 更 准 确 的 点 投 影 方 向 , 我 们 在 训 练 期 间 将AnchorUDF的空间梯度方向与地面实况方向显式对两个公共3D服装数据集进行了广泛的实验,即,MGN和Deep Fashion3D证明了AnchorUDF在单视图服装重构方面实现了最先进的性能代码可在https://github上获得。com/zhaofang0627/AnchorUDF.1. 介绍三维服装重建在服装人体数字化、虚拟试穿、网上购物等方面有着广泛的应用。最近,基于图像的3D重建已经取得了重大进展,受益于使用深度神经网络的形状表示学习[14,16,19,35,26]。与体素、点和网格相比,隐式函数将表面定义为一个函数,可以以任意分辨率表示3D表面*通讯作者。以记忆高效的方式产生精细尺度的详细表面,并已成功应用于单视图人体重建[32,33]。然而,从单个图像恢复3D服装形状仍然是一项具有挑战性的任务,因为服装除了具有复杂的几何细节(如穿着衣服的人)之外还具有开放的表面和不同的拓扑结构。现有方法通常使用参数模型来提供服装的形状先验[11,22,40]。BCNet [22]在SMPL身体模型[25]的顶部引入了分层服装表示,并引入了通用蒙皮权重生成网络,以提高服装模型的表达能力Deep Fashion3D [40]提出了适应性模板网格以适应服装形状,并采用隐式表示来细化表面细节。这些方法依赖于预定义的类别特定的模板,并且对于新的服装类别具有较差的可扩展性。在 本 文 中 , 我 们 提 出 了 锚 定 无 符 号 距 离 函 数(AnchorUDF),一个可学习的无符号距离函数,丰富了三维表面周围的锚点的查询点的三维位置特征。使用Ancho-rUDF,我们建立了一个统一的形状学习框架来从单个图像重建3D服装。如图1,我们的方法可以处理非封闭的服装表面,捕获不同的服装类别的多个拓扑结构,同时保留精细尺度的几何细节。具体来说,对于3D查询点,如PIFu [32],我们首先计算其像素对齐的局部图像特征。然而,不是使用绝对深度值来编码查询点的3D位置,而是利用表示3D形状轮廓的一组锚点来丰富其位置特征,以使距离函数更好地感测到图形拓扑。为了获得能够充分覆盖表面的少量锚请注意,与完整形状相同,这几个锚点(通常为几百个)更容易估计。3D卷积12675图1.单视图服装重建使用我们的方法,它处理非封闭的服装表面,捕捉不同的服装类别的多个拓扑结构,并保留精细尺度的几何细节。网络进一步用于从锚点计算3D特征张量,并且可以经由具有其3D坐标的三线性插值来提取查询点的3D位置特征向量,其编码查询点和锚点之间的相对位置关系,并且提供与绝对深度值相比更强的3D空间上下文信息。与有符号距离函数[29]不同,我们需要在推理时计算无符号距离函数的梯度场因此,为了获得对投影方向的更准确的估计,我们在训练期间明确地约束我们的AnchorUDF的空间梯度,以将其方向与到表面的地面实况方向对齐。我们的贡献可归纳如下:1)提出了一个统一的单视图 服 装 重 构 的 形 状 学 习 框 架 ; 2 ) 我 们 引 入 了AnchorUDF,这是一个具有锚定3D位置特征的可学习无符号距离函数; 3)我们建议学习具有梯度方向对齐的无符号距离函数,以便在推理时更准确地投影查询点。2. 相关工作单视图服装/穿着的身体重建。目前的工作通常可以分为基于模板和无模板的方法。对于前者,参数3D模型[6,25,30]用于提供强先验以约束形状估计的解空间。对于更好的几何细节表示,通常基于网格模型计算 高 频 位 移 [15 , 4 , 38 , 3 , 41 , 40 , 22] 。DeepWrinkles [24]通过将精细的衣服褶皱添加到粗糙衣服网格的法线贴图上来Tex2shape [5]将形状回归视为对齐的图像到图像转换问题,并且估计从局部纹理中匹配详细的法线和矢量置换贴图,可将其应用于身体模型以添加细节和服装。MGN [11]预测服装参数模型的PCA系数和服装细节PCA之上的位移场。然而,这些基于模板的方法通常受到预定义的服装模板网格的拓扑结构的限制,并且难以处理范围外的变形。已经提出了一些不使用参数模型的无模板方法来直接回归3D形状,以建模更复杂的服装拓扑[34,2,32]。Bodynet [34]通过端到端可训练网络从单个图像推断体积体型,并对姿势和身体部位分割进行中间监督。Deep-Human [39]通过将语义身体体积作为附加输入来引入图像引导的这些基于体素表示的方法需要很高的内存,并且通常无法获得精细尺度的形状细节。基于隐式函数表示,PIFu [32]提出了一种用于穿衣身体重建的记忆高效的深度学习最近,PIFuHD [33]形成了一个基于PIFu的多级架构,其中粗级侧重于整体推理,细级估计高度详细的几何形状。Geo-PIFu [20]扩展了PIFu,使用结构感知3D U-Net学习潜在体素特征,以减少形状失真和更清晰的表面细节。还存在一些方法[10,21],其结合隐式函数和参数模型以获得详细且可控的3D身体重建。与相关重建方法的差异。PI-FuHD [33]使用更大的输入图像分辨率和额外的正常图进行高保真度重建。我们的方法还可以结合HD模块,以进一步提高重建性能,如我们的实验所示。12676C0锚点体素网格Φ(,)���离散三线性插值样品和集群3D Convp的3D坐标点式编码器p点预测器+()������������双线性插值解码器Φ((),)������目标形状MLP输入图像 图像编码器图2.我们提出的方法的框架 AnchorUDF基于一组锚点,利用局部图像特征Φimg(π(p),I)和三维位置特征Φpos(p,)预测曲面的无符号距离场(UDF)。在训练过程中,我们显式地约束AnchorUDF的空间梯度,使其方向与表面的地面实况方向对齐。条款。[21]需要一个人体网格模型来获得人体标志,这很难扩展到具有多种拓扑结构的服装Geo-PIFU [20]使用额外的3D骨干网络来回归密集的3D体积,这对于训练和测试都是计算密集型的。相比之下,我们的方法不依赖于外部参数模型,并且仅在骨干顶部添加用于锚点预测的轻量级头网络和用于点特征提取的小型3D卷积网络此外,最重要的一点是,上述方法只能生成封闭的表面,因此不能处理服装的开放边界。隐式曲面表示。与体素[37,36,14,17],点[16,1]和网格[23,31]表示相比,隐式函数允许以无限分辨率表示3D表面,而不会产生过多的内存开销[26,29,27,7,13]。 OccNet [26]提出将3D表面编码为深度神经网络分类器的决策边界。DeepSDF [29]为一类形状引入了学习的连续有符号距离函数,其隐式地将形状IF-Nets [12]通过提取和分类从连续查询点处的多尺度特征的3D网格中提取的深度特征来SAL [7]定义了一系列损失函数,用于使用原始几何数据进行符号不可知IGR [18]鼓励神经网络在输入点上消失,并具有单位范数梯度来学习光滑和自然的隐式曲面。为了使隐式函数能够对开放表面进行建模,NDF [13]提出预测无符号距离场(UDF)以表示点云完成的开放表面。然而,由于缺乏3D空间信息,学习用于基于图像的服装重构的SALD [8]包括符号不可知学习期间的导数,这导致更低的样本复杂度和更好的拟合。与其动机和损失形式不同,我们的目标是优化UDF的梯度方向,以获得更准确的点投影方向推理。3. 方法给定一个单一的图像,我们的目标是恢复开放的表面和精细尺度的表面细节的三维在本节中,我们提出了锚定无符号距离函数(AnchorUDF),其预测具有锚定3D位置特征的表面的无符号距离场(UDF)为了在推断时沿着更准确的方向将查询点投影到表面上,我们还将AnchorUDF的空间梯度方向与表面的地面实况方向显式对齐。我们提出的方法的框架在图中示出。二、3.1. 无符号距离字段为了表示具有开放表面的形状,我们采用无符号距离场(UDF)[13],其将非负标量值s分配给空间点p:UDF(p)=s:p∈R3,s∈R+,(1)其中s表示从p到最近表面的无符号距离,并且形状表面由零水平集UDF(. )=0。与将3D空间划分为表面内部和外部的符号距离场(SDF)[29]或占用[26]相反,UDF允许自然地表示开放表面。我们可以通过沿负梯度移动p,将p投影到曲面上12677CCCC自定义项方向q:= p − UDF(p)·p =pUDF(p)。(二)密集的点云能够很容易地从隐式表面使用UDF的快速梯度评估[13]和用于网格化的朴素经典算法[9]来表面()●1()p2●●均p0可用于生成相应的网格。若f(p1;w)>f(p2;w)∇���������������(������)3.2. 无符号距离函数值得注意的是,对连续距离场进行回归比对二进制概率值进行分类要困难得多。此外,与SDF不同,UDF在推理时需要梯度方向计算为了保证梯度方向的正确性,除了因此,区分特征对于学习良好的UDF更关键。为此,我们的AnchorUDF采用局部图像特征和查询点的3D位置特征来预测UDF值。其核心思想是利用一组位于三维表面周围的锚点来计算查询点的相对位置特征,这使得距离函数更好地拟合服装拓扑结构。给定输入图像I,首先使用全卷积图像编码器来计算I的特征图。对于3D查询点p,我们将其投影到其在图像平面上的对应位置上,以通过投影像素坐标处的双线性插值从特征图计算其局部图像特征:Φimg(π(p),I),其中π表示(弱)透视相机投影。为了计算更有区别的3D位置fea。对于查询点p,定位的一组锚点C图3.梯度方向对齐的动机。p1和p2是p0邻域上的两个点。当UDF(p1)和UDF(p2)接近时,即使距离损失很小,也可能f(p1;w)> f(p2;w)。在这种情况下,p 0处的预测梯度方向(蓝色箭头)将与p0UDF(p0)的方向(红色箭头)显著不同。(通常几百个)更容易估计。因此,我们的方法也可以被认为是一种从粗到精的策略,即,首先预测形状轮廓,然后进一步细化以产生详细的表面。最后,我们将局部图像特征、3D位置特征和查询点的3D坐标连接起来作为解码器的输入以预测UDF值,并且我们的AnchorUDF被公式化为:其中,w表示网络参数,并且解码器fdec([Φimg(π(p),I),Φpos(p,C),p])由多层感知器(MLP)参数化,在其最后一层中具有ReLU。3.3. 使用梯度方向对齐为了学习我们的AnchorUDF,对于输入图像I,我们通过在其相关点附近的采样点来生成训练示例PI引入围绕表面的3D位置以编码p的3D位置。然后,我们将锚点离散化为体素网格,并将网格馈送到由一系列3D卷积层组成的点编码器中,以产生3D特征张量.通过根据p的3D坐标对特征张量应用三线性插值,我们提取fea-响应曲面并计算其地面实况UDF值UDF(p)。然后,我们通过更新fI(p,C;w)的参数w来最小化Pl上的预测UDF值和真实UDF值之间的Ll损失:LUDF= Σ|min( f I ( p , C; w ) , δ ) − min(UDF(p),δ)|.真向量ΦPOS(p,C)作为查询p∈PI(四)点与使用绝对深度值来提供3D位置信息[32]相比,我们的位置特征反映了查询点和锚点之间的相对位置关系,并提供了更强的3D空间上下文,使UDF更好地捕获多个拓扑。为了获得一组仅使用少量点就可以充分覆盖表面的锚点,我们使用k-均值,并使用聚类中心C~作为目标来学习与[13,29]类似,小值δ用于钳制最大回归距离,以将模型容量集中在表面附近的细节上。为了学习锚点预测器,我们考虑由锚点之间的倒角距离[16]定义的损失预测的锚点和目标~因为集合的锚点是无序的:LAP=Σmin||c−~c||2+Σmin||c−~c||二、(五)回归网络的骨干顶部预测锚点。 这里,锚点预测和c∈C ~c∈C~2~c∈C~2c∈Cp12678形状重建是联合学习的,这可以被看作是多任务学习,因为它们共享主干。我们认为,与完整形状相比,这几个锚点通过AnchorUDF的标准反向传播可用于计算学习到的距离场的空间梯度,以通过等式(1)投影点。(二)、12679CC×Σ-||−||∇100个锚点输入深度值三维坐标 锚点地面实况输入600个锚点图5.使用不同3D位置特征的视觉比较。我们的基于锚点的位置特征可以更好地恢复表面,特别是沿着输入图像表1.使用不同数量的倒角和P2S误差(×10−3),图4.使用不同数量锚钉MGN数据集上锚点(AP)的位数。然而,仅优化逐点距离损失(4)不能保证对UDF的真实梯度方向的良好估计如示于图3(为了简洁起见,这里省略I和inf I(pi;w)),考虑点p0的邻域上的两个点pi和p2,当pi和p2的真实UDF值接近时,因为距离损失不会惩罚点之间的关系,即使损失很小,也可能f(pi; w)> f(p2; w)。 在这种情况下,在p 0处的预测梯度方向将显著不同于地面实况 。 因 此 , 在 训 练 期 间 , 我 们 明 确 地 约 束AnchorUDF的空间梯度,以通过以下损失将其方向与真实梯度方向P2S 0.987 0.9670.8991.014表2.在MGN和Deep Fashion3D数据集上使用不同3D位置特征的倒角和P2S误差(10−3)。方法MGN Deep Fashion3DChamfer P2S Chamfer P2S深度值1.063 1.974 1.411 2.4403D坐标0.757 1.060 1.062 1.748固定点0.696 0.899 0.712 0.932具有不同形状表示的其他单视图3D重建方法[35,32,22,33]。数据集。 MGN [11]包含5个服装类别,LGDA =1−cos(pp∈Pf(p;w),pUDF(p))。(六)154个纹理服装模型。随机选择134个服装模型作为训练集,其余20个模型形成测试集。在PIFU之后,我们渲染图像实际上,pUDF(p)的方向可以通过(p q)/p q2计算,其中q是表面上最接近p最后,总体目标函数为L=LUDF+λ1LAP+λ2LGDA,(7)其中λ1和λ2是损失权重。4. 实验我 们 在 两 个 3D 尺 寸 数 据 集 上 评 估 了 所 提 出 的AnchorUDF,即MGN [11]和Deep Fashion3D [40]。我们采用倒角距离和平均点到面欧氏距离(P2S)来衡量形状重建的质量。我们还将AnchorUDF与点 更多的锚点可以更好的将项目查询点指向Num. AP100300600900表面倒角0.7310.7160.6960.75812680对于每个服装模型,在偏航轴上具有360度,并获得48,240个图像用于训练。Deep Fashion3D [40]是一个大规模的3D服装模型集合,具有不同的形状和姿势。它由2075个服装模型组成,涵盖10个不同类别和598个实例。我们使用1880个服装模型进行训练和195个模型进行测试,其中训练集和测试集具有不相交的实例。由于数据集不发布对应的多视点真实图像,我们只使用渲染图像作为训练输入。对于每个模型,我们通过对18个前视点进行采样来渲染图像,得到33,840个训练图像。与[40]类似,这里我们关注的是前视图重建。实施详情。我们采用一个有5个堆栈的堆栈沙漏[28]网络作为我们的骨干来编码图像。对于锚点预测,我们在骨干网之上添加了一个4层网络,该网络由3个控制器组成12681×××输入预测锚点输入预测锚点图7.通过我们的方法预测的锚点的可视化输入不含LGDAw/LGDA地面实况在测试时工作并降低其稳定性,这进一步图6.有和没有梯度方向对齐的目视比较。通过对齐距离场的空间梯度方向,我们可以获得可见区域的更清晰的几何细节和自遮挡区域的更少的伪影。表 3. MGN 和 Deep Fashion3D 数 据 集 的 倒 角 和 P2S 误 差(10−3),有和没有梯度方向对齐。MGN Deep Fashion3D影响随后的形状重建。图4示出了与100个锚定点相比,使用600个点产生更精细的形状,特别是对于侧视图。我们通过将不同的3D位置特征应用于我们的重建框架,包括深度值、3D点坐标和我们的锚点,来方法倒角P2S倒角P2S基于位置特征。如表2所示,我们的定位功能在MGN和Deep上都获得了最佳结果不含LGDA0.696 0.899 0.712 0.932含GDA0.635 0.762 0.621 0.839卷积(Conv)层和1个全连接(FC)层。为了提取点特征,我们使用具有32 32 32输入网格分辨率的5层3D全卷积网络。解码器是具有跳跃连接的6层FC网络在[13]之后,我们通过高斯采样对每个输入图像的5,000个训练查询点进行采样,其中在地面真实表面附近具有混合方差最大回归距离被设置为0.2。L_AP和L_GDA的权重分别设置为1.0和0.02。我们使用[13]中介绍的密集点云提取算法从学习的隐式曲面计算密集点云有关培训和推理的更多详细信息,请参阅补充材料4.1. 消融研究我 们 通 过 定 性 和 定 量 评 估 来 验 证 我 们 提 出 的AnchorUDF中主要组件的有效性我们首先研究了锚点数量对MGN数据集的影响。表1列出了使用100、300、600和900个锚点获得的倒角和P2S误差可以看出,使用更多的锚点实现更好的结果,因为查询点可以引用更强的空间上下文。然而,当点数超过某个值时,例如,900,性能下降。原因是回归的点太多增加了学习点预测网络的难度时尚3D深度值和三维坐标只提供了查询点的绝对和局部位置信息,不足以预测具有良好邻域一致性的UDF。相比之下,位于表面周围的锚点提供关于形状轮廓的信息,其使得能够进行查询点与表面之间的相对位置计算,图5示出了一些定性结果。可以看出,深度值未能投影远离表面的一些点,3D点坐标表现稍好,但仍然不能在形状的边缘处获得准确的表面。为了评估所提出的梯度方向对准的影响,表3报告了在等式2中具有和不具有LGDA的结果(六)、可以观察到,优化L GDA进一步减少了倒角和P2S误差。视觉比较如图所示。六、通过在训练过程中显式地对齐距离场的空间梯度方向,我们可以获得可见区域的更清晰的几何细节和自遮挡区域的更少的我们还可视化了模型预测的锚点,以查看这些点是否实际指示形状轮廓。如示于图在图7中,预测的锚点围绕不同服装拓扑的输入服装均匀分布,并且因此能够提供查询点的整体3D形状信息。4.2. 与相关方法的我们比较了我们的方法与相关的单视图三维重建方法与不同的形状表示。12682输入BCNet AnchorUDF图8.在MGN数据集上与BCNet [22]进行视觉比较。虽然BCNet可以恢复具有开放表面的服装形状,但它往往会产生过于平滑的表面并丢失大量的几何细节。输入Pixel2MeshPIFuAnchorUDF地面实况图9.不同单视图重建方法在Deep Fashion3D数据集上的视觉比较。Pixel2Mesh [35]和PIFu [32]都不能处理具有开放表面的服装重建。包括BCNet [22],Pixel2Mesh [35],PIFu [32]和PIFuHD[33]。如表4所示,我们的AnchorUDF在MGN和DeepFashion3D数据集上获得了最低的重建误差。图8定性地比较了我们的方法与BCNet [ 22 ],BCNet [22]使用MGN数据集上的模板网格表示服装形状。虽然这种基于模板的方法可以恢复具有开放表面的服装形状,但它12683往往会产生过于光滑的表面失去了很多几何细节图9呈现了对Deep Fshion3D数据集的视觉比较。Pixel2Mesh [35]是一种基于网格的方法,其形状从椭圆体初始化,仅恢复粗糙形状,无法处理服装的大变形使用隐式函数表示的PIFu [32]但它只能重建封闭曲面,难以处理多个开放曲面12684×××输入PIFu-UDFPIFuHD-UDFAnchorUDF AnchorUDF-HD地面实况图10.在Deep Fashion3D数据集上使用HD或UDF模块扩展的方法的视觉比较我们的方法可以重建更准确的形状和更丰富的细节,通过添加HD模块,以高分辨率的图像作为输入。表4.在MGN和Deep Fashion3D数据集上通过不同的单视图重建方法获得的倒角和P2S误差(10−3方法MGN倒角P2SBCNet [22] 4.053 4.512锚定UDF0.635 0.762方法Deep Fashion3D表5. 通过Deep Fashion3D数据集上的HD或UDF模块扩展的方法获得的倒角和P2S误差(10−3)。方法倒角P2sPIFU [32]-UDF1.4112.440PIFuHD [33]-UDF0.9691.624AnchorUDF0.6210.839AnchorUDF-HD0.5740.737边界相比之下,我们的方法不仅可以保留精细的几何细节,但也忠实地捕捉开放的gar-ment表面。我们进一步将PI- FuHD [33]中引入的HD模块合并到我们的AnchorUDF(AnchorUDF-HD)中,以评估我们的方法在高分辨率输入图像(1024 1024)上的可扩展性。 为了进行更公平的比较,我们尝试直接使用UDF作为PIFU中的隐式函数(PIFu-UDF)和PIFuHD(PIFuHD-UDF),因此它们也可以表示开放曲面。 注意这里我们不使用额外的法线贴图作为输入,因为我们的主要目的是验证我们的方法是否可以在HD框架下进一步改进。表5显示了Deep Fashion3D的定量比较。我们可以看到,通过将高分辨率图像作为输入,AnchorUDF-HD有效地减少了重建误差,特别是P2 S,表明恢复了更准 确 的 形 状 细 节 。 PIFuHD-UDF 的 性 能 优 于 PIFu-UDF,但仍低于我们的An-chorUDF,这表明与UDF直接组合不能很好地工作,并进一步证实了AnchorUDF中所提出的组件的必要性。定性评价如图所示。10个。我们可以看到AnchorUDF-HD重建了更准确的形状和更丰富的细节。请注意,尽管PIFuHD-UDF使用由粗略级别提供的3D嵌入作为距离函数的输入而不是深度值,但它仍然不能将点适当地投影到表面上。更多定性结果可参见补充材料。5. 结论我们提出了锚定无符号距离函数(An- chorUDF)的 单 视 图 三 维 服 装 重 建 。 对 于 每 个 查 询 点 ,AnchorUDF不仅提取其像素对齐的图像特征,而且基于位于3D表面周围的一组锚点来计算其3D位置特征,以使距离函数更好地拟合不同的尺寸形状。此外,我们在训练期间将AnchorUDF的空间梯度方向与表面的地面实况方向显式对齐,以在推理时获得查询点的更准确投影方向。实验表明,AnchorUDF实现了最先进的单视图重建性能,并且能够扩展到高分辨率输入。倒角P2sPixel2Mesh [35]4.2665.330PIFU [32]1.3681.670AnchorUDF0.6210.83912685引用[1] Panos Achlioptas,Olga Diamanti,Ioannis Mitliagkas,and Leonidas Guibas.三维点云的学习表示与生成模型。国际机器学习会议(ICML)论文集,2018年。3[2] Antonio Agudo和Francesc Moreno-Noguer。一个可扩展的,高效的,准确的解决方案,从运动的非刚性结构。计算机视觉和图像理解(CVIU),2018年。2[3] ThiemoAlldieck , MarcusMagnor , BharatLalBhatnagar,Christian Theobalt,and Gerard Pons-Moll.学习从一个单一的rgb相机重新构建穿着衣服的人。在IEEE计算机视觉和模式识别会议(CVPR)的会议记录中,2019年。2[4] Thiemo Alldieck , Marcus Magnor , Weipeng Xu ,Christian Theobalt,and Gerard Pons-Moll.从单目视频的详细的人类化身。在2018年3D视觉国际会议(3DV)上。2[5] ThiemoAlldieck , GerardPons-Moll , ChristianTheobalt,and Marcus Magnor. Tex2shape:从单个图像中获得详细的完整人体几何形状。在IEEE计算机视觉国际会议(ICCV)的会议中,2019年。2[6] Dragomir Anguelov 、 Praveen Srinivasan 、 DaphneKoller、Se- bastian Thrun、Jim Rodgers和James Davis。景观:人的形体完成与动画。在ACM SIGGRAPH中。2005. 2[7] Matan Atzmon和Yaron Lipman。Sal:从原始数据中学习形状的符号不可知论。在IEEE计算机视觉和模式识别会议(CVPR)的会议记录中,2020年。3[8] Matan Atzmon和Yaron Lipman。Sald:使用导数的符号不可知学习。在2021年的国际学习代表会议(ICLR)上3[9] FaustoBernardini、JoshuaMittleman、HollyRushmeier、Claudio Silva和Gabriel Taubin。曲面重构的球轴算法。IEEE可视化与计算机图形学汇刊,1999年。4[10] Bharat Lal Bhatnagar,Cristian Sminchisescu,ChristianTheobalt,and Gerard Pons-Moll.结合内隐函数学习和参数模 型进 行三 维人 体重 建。 欧洲 计算 机视 觉会 议(ECCV),2020年。2[11] BharatLalBhatnagar , GarvitaTiwari , ChristianTheobalt,and Gerard Pons-Moll.多服装网:学习从图像中打扮3d人在IEEE国际计算机视觉会议论文集,2019年。一、二、五[12] Julian Chibane,Thiemo Alldieck,Gerard Pons-Moll.特征空间中的隐式函数用于三维形状重构和补全。在IEEE计算机视觉和模式识别会议(CVPR)的会议记录中,2020年。3[13] Julian Chibane、Aymen Mir和Gerard Pons-Moll。用于隐函数 学习 的神 经无 符号 距离场 神经 信息 处理 系统(NeurIPS)的,2020年。三、四、六[14] Christopher B Choy , Danfei Xu , JunYoung Gwak ,Kevin Chen,and Silvio Savarese. 3d-r2 n2:用于单视图和多视图3D对象重建的统一方法。在2016年欧洲计算机视觉会议(ECCV)上。第1、3条[15] RDaneˇrek,EndriDibra,CengizOüztireli,RemoZie gler,andMarkus Gross.深衣:根据单个图像的3D服装形状估计。在计算机图形论坛,2017。2[16] Haoqiang Fan,Hao Su,and Leonidas J Guibas.从单幅图像重建三维物体的点集生成网络在IEEE计算机视觉和模式识别会议(CVPR)上,2017年。一、三、四[17] Matheus Gadelha,Subhransu Maji和Rui Wang。从多个对象的2D视图的3D形状归纳。在2017年3D视觉国际会议(3DV)上3[18] Amos Gropp、Lior Yariv、Niv Haim、Matan Atzmon和Yaron Lipman。用于学习形状的隐式几何正则化。在2020年国际机器学习会议(ICML)上。3[19] 放 大 图 片 作 者 : David G. Kim , Bryan Russell ,andMathieuAubry.AtlasNet:一个学习3D表面生成的Papier-Ma? che?在IEEE计算机视觉和模式识别会议(CVPR)上,2018年。1[20] Tong He , John Collomosse , Hailin Jin , and StefanoSoatto. Geo-pifu:用于单视图人体重建的几何和像素对齐隐式函数。在神经信息处理系统(NeurIPS)的进展,2020。二、三[21] Zheng Huang,Yuanlu Xu,Christoph Lassner,Hao Li,and Tony Tung. Arch:可动画化的衣服人的重建.在IEEE计算机视觉和模式识别会议(CVPR)的会议记录中,2020年。二、三[22] Boyi Jiang,Juyong Zhang,Yang Hong,Jinhao Luo,Ligang Liu,and Hujun Bao. Bcnet:从单个图像学习身体和衣服形状。欧洲计算机视觉会议(ECCV)论文集,2020年。一、二、五、七、八[23] Angjoo Kanazawa、Shubham Tulsiani、Alexei A Efros和Jitendra Malik。从图像集合学习特定类别的网格重建在欧洲计算机视觉会议(ECCV)的论文集,2018。3[24] 佐拉·拉纳丹尼尔·克里默斯托尼·董深皱纹:精确逼真的服装造型。在2018年欧洲计算机视觉会议(ECCV)上。2[25] Matthew Loper、 Naureen Mahmood 、Javier Romero 、Gerard Pons-Moll和Michael J Black。Smpl:一个有皮肤的多人线性模型。ACM图形交易(TOG),2015年。一、二[26] Lars Mescheder,Michael Oechsle,Michael Niemeyer,Se- bastian Nowozin , and Andreas Geiger.Occupancynetworks:Learning 3d reconstruction in function space.在IEEE计算机视觉和模式识别会议(CVPR)上,2019年。第1、3条[27] Patrick Mullen、Fernando De Goes、Mathieu Desbrun、David Cohen-Steiner和Pierre Alliez。签署未签署的:基于原始点集的曲面重建。计算机图形学论坛,2010年。312686[28] Alejandro Newell,Kaiyu Yang,and Jia Deng.用于人体姿态 估计 的堆 叠沙 漏网 络。 欧洲 计算 机视 觉会 议(ECCV),2016年。5[29] 郑俊朴、彼得·弗洛伦斯、朱利安·斯特劳布、理查德·纽科姆和史蒂文·洛夫格罗夫。Deepsdf:学习连续符号距离函数用于形状表示。在IEEE计算机视觉和模式识别会议(CVPR)的会议记录中,2019年。二、三、四[30] Georgios Pavlakos、Vasileios Choutas、Nima Ghorbani、Timo Bolkart、Ahmed AA Osman、Dimitrios Tzionas和Michael J Black。表现性身体捕捉:从单个图像获得3D手、脸和身体。在IEEE计算机视觉和模式识别会议(CVPR)的会议记录中,2019年。2[31] Anurag Ranjan , Timo Bolkart , Soubhik Sanyal , andMichael J Black.使用卷积网格自动编码器生成3d人脸。在欧洲计算机视觉会议(ECCV)的会议记录中,2018年。3[32] Shunsuke Saito、Zeng Huang、Ryota Natsume、ShigeoMor-ishima、Angjoo Kanazawa和Hao Li。Pifu:Pixel-aligned implicit function for high-resolution clothed humandigitiza- tion.在IEEE计算机视觉国际会议(ICCV)的会议记录中,2019年。一、二、四、五、七、八[33] Shunsuke Saito , Tomas Simon , Jason Saragih , andHanbyul Joo. Pifuhd:用于高分辨率3d人体数字化的多级像素对齐隐式函数。在IEEE计算机视觉和模式识别会议(CVPR)上,2020年。一、二、五、七、八[34] Gul Varol,Duygu Ceylan,Bryan Russell,Jimei Yang,ErsinYumer,IvanLaptev,andCordeliaSchmid.Bodynet:三维人体形状的体积推断。在欧洲计算机视觉会议(ECCV)的论文集,2018。2[35] Nanyang Wang , Yinda Zhang , Zhuwen Li , YanweiFu,Wei Liu,and Yu-Gang Jiang. Pixel2mesh:从单个rgb图像生成3d网格模型。在欧洲计算机视觉会议(ECCV)的会议记录中,2018年。一、五、七、八[36] 吴佳俊,张承凯,薛天凡,威廉T自由人,和约书亚B特南鲍姆.通过3d生成对抗建模学习物体形状的概率潜在空间。神经信息处理系统进展(NeurIPS),2016年。3[37] 吴 志 荣 , 宋 舒 然 , Aditya Khosla , Fisher Yu , Lin-guang Zhang , Xiaoou Tang , and Jianxiong Xiao. 3dshapenets:体积形状的深度表示。在IEEE计算机视觉和模式识别会议(CVPR)的会议记录中,2015年。3[38] Tao Yu,Zerong Zheng,Yuan Zhong,Jianhui Zhao,QionghaiDai , GerardPons-Moll , andYebinLiu.Simulcap:单视图的人的行为捕捉与布料模拟.在IEEE计算机视觉和模式识别会议(CVPR)的会议记录中,2019年。2[39] Zerong Zheng,Tao Yu,Yixuan Wei,Qionghai Dai,and Yebin Liu. Deephuman :从单幅图像重建三维人体。在IEEE计算机视觉国际会议(ICCV)的会议记录中,2019年。2[40] Heming Zhu,Yu Cao,Hang Jin,Weikai Chen,DongDu,Zhayang Wang,Shuguang Cui,and Xiaoguang Han.Deep fashion3d:从单幅图像重建三维服装的数据集和基准。在欧洲计算机视觉会议(ECCV)的会议记录中,2020年。一、二、五[41] Hao Zhu , Xinxin Zuo ,
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 基于Python和Opencv的车牌识别系统实现
- 我的代码小部件库:统计、MySQL操作与树结构功能
- React初学者入门指南:快速构建并部署你的第一个应用
- Oddish:夜潜CSGO皮肤,智能爬虫技术解析
- 利用REST HaProxy实现haproxy.cfg配置的HTTP接口化
- LeetCode用例构造实践:CMake和GoogleTest的应用
- 快速搭建vulhub靶场:简化docker-compose与vulhub-master下载
- 天秤座术语表:glossariolibras项目安装与使用指南
- 从Vercel到Firebase的全栈Amazon克隆项目指南
- ANU PK大楼Studio 1的3D声效和Ambisonic技术体验
- C#实现的鼠标事件功能演示
- 掌握DP-10:LeetCode超级掉蛋与爆破气球
- C与SDL开发的游戏如何编译至WebAssembly平台
- CastorDOC开源应用程序:文档管理功能与Alfresco集成
- LeetCode用例构造与计算机科学基础:数据结构与设计模式
- 通过travis-nightly-builder实现自动化API与Rake任务构建
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功