没有合适的资源?快使用搜索试试~ 我知道了~
19333面片详细地图NCS地面实况图粗基面地地面实况形状约1.8MB粗基形NCS(我们的)~ 400 KB,错误x1.0NGLOD橡子~ 400 KB,错误x7.0 ~ 400 KB,错误x7.8神经卷积曲面1*Noam Aigerman2Paul Guerrero2Vladimir G.NiloyJ. 米特拉1,21伦敦大学学院2Adobe Research图1.神经卷积曲面(NCS)可以忠实地表示给定的地面真实形状,同时将粗糙的几何形状与精细的细节分离开来,从而获得高度准确的形状表示与其他最先进的方法neuralLOD [34]和Acorn [23]相比,NCS对于相同的内存占用实现了更准确的结果。摘要这项工作涉及的形状表示,解开罚款,当地和可能重复的几何,从全球,粗糙的结构。实现这样的解纠缠导致两个无关的优点:i)表示给定几何形状所需的参数数量的显著压缩; ii)操纵全局几何形状或局部细节而不损害另一个的能力。我们的方法的核心是一种新的管道和神经架构,它们经过优化以表示一个特定的图谱,代表一个3D表面。我们的流水线和架构的设计,使解开从局部细节的全球几何是通过优化accom-plished,在一个完全无监督的方式。我们表明,这种方法实现了更好的神经形状压缩比最先进的,以及从 而 能 够 操 纵 和 转 移 形 状 细 节 。 项 目 页 面http://geometry.cs.ucl.ac.uk/projects/2022/cnnmaps/.*在Adobe Research实习期间部分参与了该项目。1. 介绍三角形网格自其早期阶段以来一直是大多数几何处理中最流行的表示,然而研究一直致力于设计新颖的几何表示以规避三角形网格的许多缺点。最近,深度学习的兴起促使研究人员研究通过神经网络表示形状的方法。虽然在这种情况下神经网络的直接使用是通过使用相同的权重集合来从共享潜在空间解码任何形状来表示整个形状空间,但其他方法使用形状特定的权重集合来表示特定实例。这种方法有效而准确地捕捉几何细节这些形状实例的神经表示被证明在几何处理应用中是有用的,例如高效渲染[34],细节层次[23],表面参数化和表面间映射[26]。形状表示和神经网络结构的选择现有19334!表示通常使用MLP将形状建模为函数,该函数将点从2D图谱映射到表面[26]或将3D体积中的点映射到隐式函数,例如距离场[27]。这些体系结构的缺点是它们使几何细节和整体形状结构纠缠在一起,并且没有像卷积神经网络(CNN)在图像上实现的那样重新使用网络权重来表示重复的局部细节的自然机制。一些方法确实选择使用2D图像来表示几何形状[31],但是这些方法表现出有限的分辨率,因此无法以亚像素分辨率对具有细节的表面进行建模。替代地,代替单个全局MLP,一些现有技术通过将形状分解成较小的3D体素来利用重复,每个体素由SDF函数表示[23],然而,这些表示没有考虑表面细节通常与表面对齐的事实,因此在表示与形状一起流动的局部几何纹理时不太有效。在本文中,我们将定义一种新的表示,实现局部几何细节(“纹理”)从模型的全局粗糙几何结构中分离,从而导致重复模式的网络权重的重用,这些重复模式随着表面改变方向。我们通过考虑如[15,26]中的标准的基于图集的表示来实现这一点,但是将表面编码为粗糙表面的组合,该粗糙表面定义了形状的一般粗糙结构,通过MLP表示,以及相关的精细细节图,该精细细节图在顶部添加了几何纹理,通过CNN表示,该CNN定义了连续的偏移图。几何细节沿其法线方向或作为一般位移矢量添加到粗几何中。由于局部位移细节是用卷积核表示的,因此它们可以有效地在表面的类似区域中重复使用我们称这种混合表示为神经卷积表面。这种新颖的架构使网络能够以完全无监督的方式将精细CNN表示与粗略MLP而不需要在装配过程中明确地监督分离。我们表明,我们设计的架构中的归纳偏差导致形状自动分离为粗糙的基本形状和可重用的卷积细节,见图1。我们评估我们的方法在一系列复杂的表面,面孔和探索之间的相关权衡表示,tation质量和模型的复杂性。我们与一组最先进的替代方案进行比较(例如,NeuralLod [34] , ACORN [23] , Neural Surface Maps[26]),并证明我们的模型在模型复杂度的一小部分(1%至10%的参数)下实现了更好的准确性。此外,我们还证明了表示的卷积方面使其具有可解释性,从而导致包括单个形状内的细节修改和不同模型之间的细节传输在内的应用2. 相关作品我们的方法遵循了一长串关于使用神经形状表示的工作,以及通过神经网络表示单个形状的更具体的最近趋势。我们还纳入了几何细节表示层次的接下来,我们回顾了所有这些领域的现有文献形状空间的神经表示。近年来,已经提出了大量用于3D形状的生成神经表示,例如体素网格[5,7,12,18]、点云[1,33]、网格[6]或可变形图元的并集[11]。对于这些表示,离散元素的数量或尺度对该方法表示精细细节的能力有很大影响。为了应对这一挑战,一些方法将形状建模为神经函数,允许网络优化如何分配其容量:隐式模型将形状表示为从体积到有符号距离场[27]或占用[24]值的映射这些可以通过加强Eikonal方程的饱和度[2,3,14]或使用中间元网络进行更快的重建[17]来进一步改进。由于大多数传统的计算机图形管道都需要表面模型,基于地图集的表示提供了另一种突出的选择。这些技术将形状建模为图谱,即,将2D点映射到3D位置的函数[15,35]。这些方法的改进版本包括添加低失真地图集的优化[4],学习2D域的任务特定几何[9],或迫使表面与隐式函数一致[28]。[31]使用几何图像[16]并将几何图形编码为2D图像,以便执行深度学习任务,如分割。将网络拟合到形状。虽然前面提到的工作涉及训练网络以表示集合中的任意形状,但是可以采用类似的技术来通过一个网络来表示一个特定形状,通过优化该单个示例上的网络权重来拟合该特定形状这有几个优点;例如,神经表面映射[26]使用完全连接的神经网络将参数化的形状表示为R2R3映射,并表明所实现的重建比训练用于重建多个形状的网络更准确,并且可以表示精细的细节。此外,人们可以连接这些映射并优化它们以实现低失真的表面到表面映射。通过神经网络表示形状能够压缩,例如,隐式曲面[8,34]。也可以从间接观察中进行优化,例如多视图应用[25,32]。这些作品中有许多是关于保存细节的。ACORN [23]解决了一个整数规划,19335$ƒ$$⇢⇡2${2k k}!$$GCQÁ粗糙表面gdÃ详细的表面MLPp~Fp~fºCNNh»MLPp^S~Ωp^S图2. 神经卷积曲面概述。表面S由两个模型表示,粗模型gc编码表面的粗版本S,并且所有这些都计算局部参考系F,以及细模型gd编码几何细节作为f集合在局部参考系的坐标中,从粗略表面测量细分SDF体积,以将更多参数分配给包含更多详细信息的区域。Yifan等人提出了限制在法向的基于警笛的隐式位移场[36],其将几何细节与粗略的形状结构分开。在我们的工作中,我们使用卷积滤波器应用于2D域模型位移-在内部,该精细模块由生成代码网格的CNN组件组成,该代码网格被内插并馈送到MLP以获得最终的精细偏移矢量。然后添加这两个模块以获得从2D到3D的最终地图C d从基于地图集的表面表示中移除。使用卷积滤波器使我们能够依赖于重复信号(其可以在应用于整个表面的那些滤波器中被编码)。通过对我们相对于参数化表面图谱的位移进行建模,我们可以学习与表面对齐的几何纹理。几何处理中的细节层次。许多先前的优化技术集中在简化具有高多边形数的网格。不同的简化算子[10,20,30]具有基于几何和基于外观的[21]目标函数(参见[22]以获得全面概述)。在这项工作中,而不是简化现有的网格,我们建议使用神经网络来表示表面。人们可以通过简单地改变神经网络的容量来控制几何细节的数量。我们的表示还可以通过使用神经卷积表面来有效地表示几何纹理,该神经卷积表面利用共享内核来重复模式。3. 神经卷积曲面我们的目标是用神经网络表示3D表面SR3,使得参数对表面进行压缩我们假设已经计算了曲面到2D单位圆 的 双 射 参 数 化 ( 我 们 在 所 有 实 验 中 使 用 SLIM[29])。我们将此参数化视为从单位圆盘到曲面D的映射:XR2:X1S,将2D点q映射到表面上的3D点p S。在[26]之后,我们拟合网络g来近似这个函数:g(q)s(q)。我们提出神经卷积表面(NCS)作为一个准确和紧凑的神经模型的方法。NCSg 模 型由两个模块组成:(i)基于标准MLP模型的粗略模块gc,其目的是近似表面的粗略形状;以及(ii)精细模块gd,其将详细位移添加到粗略表面。g(q):=g$(q)+Fgc(q)g(q), (1)其中,Fgc是在粗糙表面位置处相对于局部参考系的旋转,并且f=($,f)。有关概述,请参见图2这两个模型是联合训练的,只有目标映射作为监督。直观地,粗-细分离允许细模型gd仅在表面的高频几何纹理上扩展容量 在这种几何结构中重复的结构可以通过卷积核的共享权重来有效地对真进行建模。我们接下来在第3.1节中描述粗模型,在第3.2节中描述细模型,在第3.3节中描述局部参考系,在第3.4节中描述整体训练设置。3.1. 粗糙模型粗略模型表示地面实况表面S的平滑、粗略版本,其通过在任何表面点处提供良好定义的局部坐标系而用作基础,用于应用由精细模型预测的详细几何纹理。我们的粗糙模型用低容量的MLP近似s的粗糙版本,该MLP将单位圆盘中的2D坐标q作为输入,并输出粗糙表面上的对应点p:p=gc(q)。MLP的有限容量确保仅对表面的粗略近似请注意,我们不对粗糙表面过程使用中间监督。3.2. 精细模型精细模型表示应用于粗糙表面gc的详细几何纹理。精细模型被设计为首先生成代码的高分辨率2D网格,然后内插代码并映射内插代码19336.g(q)=hf(q)|,(2)2-|我- 你好!$$^D我..ΣΣ$,$wi(q)我⇠⌫我u u uv到3D位移向量通过一个小的MLP。这由三个组成部分促成:(i)我们保持学习特征的低分辨率输入网格(即,具有多个通道的低分辨率2D图像)的特征映射;(ii)CNNf将特征映射变换并上采样(每层2x)为高分辨率2D代码网格;以及(iii)对于落入网格单元的给定2D查询点qD其中,Xq表示图像X在q处的双线性插值(假设像素坐标在[ 1,1]2中),并且x=(x,x,x)。直观地说,特征图存储关于由CNN 函数细化的几何表面细节的粗略信息,引入存储在共享CNN内核中的学习先验给定样本q的插值在特征空间而不是3D空间中执行,并且随后是小的MLP,以允许CNN输出的像素之间的复杂非线性插值表面。有关模型架构的详细信息,请参阅补充材料。补丁. 在网格上直接离散s的全参数域有两个缺点:(i)由CNN处理的像素网格的分辨率需要非常高,(a) 1片(b)700片(c)>2000片图3.贴片数量的影响。用单个面片表示形状,会导致底层参数化的高度失真((a)中的红色)。将基本域分解成许多小的块(c)导致低得多的每块失真。然而,这是以大量增加的内存预算来表示形状为代价的中等大小的块(b)通过减少每个块的失真而达到平衡,同时在最终存储器要求中仍然是轻作为从贴片的边界到贴片的参数域中的Li(q)的带符号距离的函数,对贴片到点q 我们在所有补丁上训练相同的MLP和CNN(具有共享权重 f1,f2 ),从而鼓励CNN跨补丁重用滤波器;不同补丁之间唯一不同的参数是分配给每个补丁的粗略输入特征网格图f1。3.3. 局部参考系精细模型gd(q)的输出是位移vec。2.20.0大到精确地模拟小的几何细节;以及(ii)粗糙表面的粗糙度.C.天真地添加初始映射S可能表现出显著的区域失真,即,在映射的不同区域中,比例因子之间可能存在很大的差异,使得单个全局解析效率低下。为了避免这些问题,我们将表面S分割成小的重叠片R0,. ......、 其中每个具有单独的局部参数化ri:[1,1]2R i 以来每个贴片仅覆盖表面的一小部分区域,p=g$(q)p+p将使位移对低-粗糙表面的校准方向。因此,为了鼓励位移之间的一致性,我们在与粗糙表面的切空间对齐的局部坐标系Fgc中将它们定义为,通过粗糙表面映射的雅可比矩阵测量,如下:每个单独映射内的失真很小,每个片中的像素网格的分辨率可以更低,@gc@qu@gc@qv而不是牺牲几何细节此外,由于我们认为我们的精细模型是基于CNN的,因此我们可以为每个补丁学习和重用相同的CNN内核,而不会损害我们训练精细模型以表示重复几何的目标,现在只需将其拆分为不同的补丁。基于补丁的模型。一旦我们将输入分解为多个补丁,等式2可以概括为:其中Qu和Qv是全局参数化的两个坐标。然后,作为q的函数的局部坐标系被定义为:FGC :=[n,Jc,n^Jc],其中n=Jc^Jc,(5)其中,n返回粗糙表面的法线,并表示叉积。注意,尽管图中未示出,1X.Σ(3)g(q)= Pw(q)h f(q)|我我上面的表达式,每个轴向量都是法向的-被设定为单位长度。其中wi(q)=max0,-dbli(q)、其中li(q)将全局参数q映射到局部面片参数化ri,并且重叠3.4. 培训如前所述,粗略模块和精细模块一起定义了将2D点映射到3D的神经网络Jc:=[Jc,Jc]=、(四)uvli(q)193372QS表1.与100K参数的形状表示的比较,包括倒角距离#。数字乘以103。[34个]稀疏[34][36个]我们犰狳 1.951.341.06 0.54Bimba 2.302.072.09 1.04迪诺 1.701.552.55 1.48龙 1.571.120.62 0.57熟料 2.061.060.81 1.28海马 1.261.15-0.44大象 4.062.243.93 2.49石像鬼 6.30-8.51 2.29我们通过L2损失将该组合映射拟合到地面实况表面映射:Ljoint=Zkg(q)-s(q)k2dq,(6)其中Qs是全局参数域Q映射到曲面S。4. 实验现在我们详细介绍我们进行的各种实验。我们将我们的重建质量与其他方法进行比较,然后继续进行消融,最后完成我们的表示所支持的其他应用。对比我们将我们的方法与三种最先进的神经形状表示方法进行(i)ACORN [23];(ii)NGLOD [34]和(iii)神经表面映射(NSM)[26]。在补充中,我们提供了额外的比较。我们对具有不同数量和类型的几何细节的各种形状的方法进行了比较(见表2)。在主要文件中,我们提供了5种不同形状的比较,在补充材料中提供了其他形状请注意,所有模型都缩放到单位球体。我们沿着两个主要轴线评估绩效(i) 表示精度由双向倒角距离测量,该距离计算输出和地面实况曲面之间的距离。较低的值表示更精确的表示。(ii)内存成本是通过表示所需的参数数量来衡量的。通常,参数表示为32位浮点数,因此乘以4就是字节数。如图6所示,对于相同数量的参数,我们的方法实现了比现有技术更高的准确度。此外,在除一种情况(Lucy)之外的所有情况下,即使使用少10倍的参数,我们的方法如图4所示,我们的方法比ACORN和NGLOD更准确地保留了龙的鳞片和Bimba的辫子等细节。此外,两者表2.评估和分布的网络参数之间的不同模块,在我们的架构中,各种型号的测试文件,大小为100K。潜码使用大多数参数,而其他组件是自包含的。#V#F粗MLP代码精细CNN MLPTOT.params犰狳 172K346K13K93K6K467113KBimba50K100K9K115K6K467130K露西 877K小行星1753K13K96K4K435114K迪诺26K51K4K120K6K467130K龙 451K902K13K99K6K467119K竞争方法表现出离散化伪像或噪声,而我们的方法提供了平滑的、无伪像的表面。我们在表1中提供了与并发方法IDF [36]的额外比较。补充材料中提供了进一步的视觉比较IDF [36]未能正确描述恐龙和大象的等值面。请注意,由IDF生成的等值面包括环绕形状的多余几何体。为了提供数值比较,我们手动删除了额外的多余表面。以色列国防军完全不能代表海马,因此我们在表中留下一个消融术图5评估了我们框架中各种组件的必要性:(i)标量位移:我们将精细网络限制为仅沿法线方向应用标量位移,而不是完整模型中使用的位移向量。这大大阻碍了精细模型在粗模型之上添加细节的能力,导致类似于粗模型的过平滑结果;(ii)仅PCA:我们删除粗模型并仅使用精细模型。对于精细模型所需的局部参考帧F,我们预先计算并存储地面真实补丁的PCA帧。这导致精细模型将其容量花费在重新创建粗略几何上,并且因此,在重建中出现伪影和波纹。功能增强。由于CNN对局部几何细节进行编码,因此我们可以通过操纵CNN的特征图来编辑几何细节在图8中,我们通过放大CNN输出来对一些模型进行特征增强,然后将其馈送到精细模型的MLP中。类似地,我们可以通过缩小相同的特征来执行平滑。细节转移。我们对粗细节和细细节的分解使我们能够执行细节传输,类似于IDF [36]。图9显示了我们的方法的结果,将折痕从一个模型转移到另一个模型。与IDF类似,我们通过为源训练一个粗网络来实现这一点19338(a) 地面实况(b)ACORN [23](c) NGLOD [34](d) NCS(我们的)图4. 表面表现。我们的方法的重建质量,与ACORN [23]和NeuralLOD [34]相比,对于两个模型,每个方法模型大小使用相同数量的网络参数(本例中为100K参数)。我们的结果表现出更高的精度和重建的细节,而不表现出伪影,如人工边缘或混叠。一个是形状,一个是目标形状。训练精细网络以准确地拟合源形状。然后,我们将细节转移到目标形状,并使用源全局和局部参数化。19339{1}|}(a)GT(b)正常(c)PCA(d)我们的图5.消融研究。(a)Ground Truth模型;(c)将位移矢量添加到每片标准坐标系(使用片的PCA轴建立)产生伪像和表面波纹;(d)我们的重建是清晰的并且没有显示伪影。图7.我们的方法产生了可解释的卷积核:我们在dino上选择一个尖峰(突出显示),识别在其区域中强烈活跃的CNN特征,然后识别相同特征活跃的其他区域。高分辨率(较热的颜色)意味着具有相似几何细节的区域。10-28十比一10- 310-2收到210- 30.1M 1M10M#参数10-250.1M 1M 10M#参数10-2610- 310-280.1M 1M10M#参数收到50.1M 1 M 10 M#参数图6.不同模型的重建质量与模型复杂性请注意,我们的方法实现了更好的重建质量与显着更低的内存占用。请注意,数值以对数标度报告下面一行显示了我们的结果。考虑到我们的重建,我们不使用超过1M的参数。内核的可解释性。 使用CNN在 我们的网络体系结构的精细分支特定的核对几何形状的特定细节作出反应在图7中,我们展示了一个示例,在该示例中,我们选择模型上的一个区域,找到该区域中强烈激活的特征,然后突出显示这些特征被激活的其他区域正如我们所看到的,与恐龙的一个尖峰相关的特征这表明我们的内核在整个模型中得到了重用,这解释了我们的网络这也可能导致未来的工作GT平滑锐化图8. 锐化和平滑。我们的NCS自然地将形状分解成粗糙的形状和精细的细节。增强或抑制细节并重建形状,自然会导致表面特征的夸大或平滑。其中,我们对更大的表面集合使用相同的内核,以学习更具体和鲁棒的特征。实作详细数据。通过在S上随机采样补丁中心ci并选择测地半径R i内的所有点来找到补丁:pdge o(p,ci)le. 我们使用一种迭代方法:在创建一个补丁后,补丁内的所有点都被标记为禁止用于随后的补丁中心,其概率为1/2,这控制了犰狳橡子NGLODNSM我们BimbaACORNNGLODNSM我们安基洛斯ACORNNGLODNSM我们龙ACORNNGLODNSM我们倒角距离倒角距离19340C2!LZk-k-(a) 来源(b)目标(c)以色列国防军[36]图9. 细节转移。我们的架构本质上decomposes形状到粗糙的基础模型和相关的几何细节,这使我们能够将学习到的细节从一个模型转移到另一个基础形状。在这种情况下,从一条裤子(a)到另一条裤子。顶部显示了两对中每一对的拟合器粗略模型。在这里,我们将我们的详细传输结果与并发工作的结果进行比较[36]。为了传递细节,我们用目标粗模型替换源粗模型,并重建形状。请注意,这是可能的,因为全局几何图像(源和目标)是对齐的。在未对准的情况下,可以使用例如,[26]第10段。面片之间的重叠量在我们的实验中,我们设置了=0。5,则0=0。04乘以S沿任何坐标轴的最大范围。图3显示了选择补丁数量的效果。在训练性能方面,我们观察到,我们可以通过一个训练时间表来实现更好的结果,该时间表首先预热粗模型,然后再缓慢地提升细模型的训练:L=(1-λ)Ljoint+λLreg(7)其中reg=g $(q)s(q)2 dq。QS我们从λ= 1开始,在预热阶段逐渐减小λ0,持续100K次迭代。同时,我们在预热阶段增加精细模型的学习率并降低粗略模型的学习率:粗略模型的学习率遵循余弦退火时间表[19],在预热阶段结束时降至最小学习率0,而精细模型的学习率设置为1e4减去粗略学习率。迭代的总次数基于模型的复杂性而变化,例如,,在800K到1.4M迭代之间,使用RMSProp优化器[13]。5. 结论神经卷积表面使得能够经由神经网络忠实地表示给定表面,具有更高的准确性和更小的网络容量(例如,10-80 x)兼容多种最先进的替代品。我们的方法的关键是网络架构中的归纳偏差,导致分裂表示,MLP产生形状的粗略抽象,以及基于局部参考框架的局部UV图表添加几何位移的精细细节CNN类层。我们证明了这种粗-细解纠缠是自然出现的,没有任何中间监督,并导致细模块重用其卷积核,这反过来又使有意义的几何操作,如网格平滑和特征夸大。局限性和未来的工作。虽 然 基于CNN的架构通过跨以对象为中心的局部坐标框架重用内核而导致显著的压缩,但是内核本身仍然是规则的2D欧几里得图像内核,并且因此不是旋转不变的,因为它们理想地应该处理几何形状。这阻碍了在整个形状上完美地重复使用内核,例如,在形状上重新定向(在局部切空间上旋转)的不对称特征的情况此外,内核不能被重用来捕获底层几何细节的局部变形。最后,我们注意到,在某些情况下,在没有中间监督的情况下,我们的流水线可能会将粗结构与细结构相关联,例如,图8中露西虽然我们专注于忠实地表示本工作范围内的单个形状,但我们打算跟踪下一个目标,即捕获形状的分布。我们观察到,几何细节通常在形状之间重复使用,因此我们可以渴望学习CNN细节内核的通用字典,然后可以应用于不同的形状集合,其中全局结构通过特定于形状的粗抽象来捕获。局部几何细节的这种通用字典将是在图像上学习的低级特征的近似模拟使用ImageNet学习的VGG特征),这反过来将使细节的操作或传输以及使用固定的通用形状字典压缩形状成为可能。鸣谢。LM部分得到了UCL AI中心和UCL Adobe PhD项目的支持。该项目获得了欧盟地平线2020研究和创新计划的资助,该计划19341引用[1] P. Achlioptas、O.迪亚曼蒂岛Mitliagkas和L.吉巴斯三维点云的学习表示与生成模型。ICML,2018。2[2] M. Atzmon和Y.利普曼SAL:从原始数据中学习形状的符号不可知论。在IEEE/CVF计算机视觉和模式识别会议论文集,第2565-2574页2[3] M. Atzmon和Y.利普曼SAL++:带导数的符号不可知学习。arXiv预印本arXiv:2006.05400,2020。2[4] J. Bednarik,S. Parashar,E.贡多杜湾萨尔茨曼,以及P. Fua. 通 过 学 习 可 微 曲 面 表 示 的 形 状 重 建 。 在IEEE/CVF计算机视觉和模式识别会议论文集,第4716-4725页2[5] A. Brock,T. Lim,J. M. Ritchie和N.韦斯顿使用卷积神经网络的生成和判别体素建模CoRR,2016年。2[6] A. Dai和M.尼斯纳Scan2mesh:从非结构化范围扫描到3D网格。计算机视觉和模式识别(CVPR),IEEE,2019。2[7] A.戴角,澳-地R. Qi和M.尼斯纳使用3d编码器预测器cnns和形状合成的形状完成。Proc. Computer Vision andPattern Recognition(CVPR),IEEE,2017. 2[8] T. 戴维斯,D.Nowrouzezahrai和A.雅各布森Overfit neur-ral networks as a compact shape representation,2020.2[9] T. Deprelle,T.Groueix,M.Fisher,V.G. 金湾,澳-地C.Russell和M.奥布莉学习三维形状生成和匹配的基本结构。arXiv预印本arXiv:1908.04725,2019。2[10] M.加兰和P.赫克伯特。使用二次误差度量的曲面简化。ACM SIGGRAPH计算机图形学会议论文集,1997,071997。3[11] K.热那亚湾Cole,D. Vlasic,A. Sarna,W. T. Freeman和 T. 放 克 豪 瑟 使 用 结 构 化 隐 函 数 学 习 形 状 模 板 在ICCV,2019年。2[12] R. Girdhar,D. F. Fouhey,M. Rodriguez和A.古普塔。学 习 对 象 的 可 预 测 和 生 成 矢 量 表 示 。 CoRR ,abs/1603.08637,2016。2[13] A. Graves. 用 递 归 神 经 网 络 生 成 序 列 . arXiv 预 印 本arXiv:1308.0850,2013。8[14] A.格罗普湖Yariv,N. Haim,M. Atzmon和Y.利普曼用于学习形状的隐式几何正则化。arXiv预印本arXiv:2002.10099,2020。2[15] T. Groueix,M. 费希尔 金湾,澳-地 C. 罗素和M. 奥布里本文介绍了一种学习三维表面生成的方法在IEEE计算机视觉和模式识别会议论文集,第216-224页,2018年。2[16] X. Gu,S. Gortler和H.霍普几何图形图像。在第29届计算机图形和交互技术中,SIGGRAPH计算机协会2[17] G. Littwin和L.狼深Meta功能的形状表示。在IEEE/CVF计算机视觉国际会议论文集,第1824-1833页,2019年。2[18] J. Liu,F. Yu和T.放克豪瑟使用生成对抗网络的交互式3d建模。国际3D视觉会议(3DV),2017年。2[19] I. Loshchilov和F.哈特Sgdr:随机梯度下降与热重启。在ICLR,2017。8[20] K.- L. 低和T。S. Tan. 基于顶点聚类的模型简化第75-82、188、01页,1997年。3[21] D. Luebke和C.埃里克森任意多边形环境的视相关简化。SIGGRAPH Comput.Graph. ,1997年。3[22] D. 吕布克湾Watson,J.D. 科恩,M。Reddy和A.瓦什尼。3D图形的细节级别。Elsevier Science Inc.,USA,2002. 3[23] J. N. Martel,D. B.林德尔角Z. Lin,E. R.陈,M。Mon-teiro和G.韦茨斯坦Acorn:用于神经场景表示的自适应坐标网络。arXiv预印本arXiv:2105.02788,2021。一、二、五、六[24] L. Mescheder,M.Oechsle,M.Niemeyer,S.诺沃津和A. 盖革Occupancy networks:Learning 3d reconstructionin function space.IEEE 计 算 机 视 觉 和 模 式 识 别 会 议(CVPR),2019年。2[25] B. Mildenhall,P.P. 斯里尼瓦桑M.Tancik,J.T. 巴伦R. Ramamoorthi和R. Ng. NeRF:将场景表示为用于视图合 成 的 神 经 辐 射 场 。 在 欧 洲 计 算 机 视 觉 上 , 第405Springer,2020年。2[26] L. Morreale,N.Aigerman,V.G. Kim和N.J. 米特拉神经表面图。在IEEE/CVF计算机视觉和模式识别会议论文集,第4639-4648页一二三五八[27] J·J·帕克, P.弗洛伦斯, J. Straub, R. 纽科姆,以及S.洛夫格罗夫Deepsdf:学习连续符号距离函数的形状表示。在IEEE/CVF计算机视觉和模式识别会议论文集,第165-174页,2019年。2[28] O. Poursaeed,M.Fisher,N.Aigerman和V.G. Kim. 耦合显式和隐式表面表示生成三维建模。ECCV,2020年。2[29] M. 拉 比 诺 维 奇 河 Poranne , D. Panozzo 和 O. Sorkine-Hornung可缩放局部内射映射。ACM Trans- actions onGraphics(TOG),36(4):1,2017. 3[30] W. Schroeder,J. Zarge,and W.洛伦森三角形网格的抽取。SIGGRAPH Comput. Graph. ,26:653[31] A. Sinha,J. Bai,and K. Ramani使用几何图像深度学习3d形状表面。在ECCV,2016年。2[32] 西茨曼,J. N.马特尔、A. W. Bergman,D. B. Lindell和G.韦茨斯坦具有周期激活功能的内隐神经表征。arXiv预印本arXiv:2006.09661,2020。2[33] H. Su,H.Fan和L.Guibas 从单幅图像重建三维物体的点集生成CVPR,2017年。219342[34] T. 泷川,J. Litalien,K. 阿茵,K. 克瑞斯,C.循环D. Nowrouzezahrai,A.雅各布森M. McGuire和S.菲德勒。神经几何细节层次:隐式3d形状的实时渲染。 在proc CVPR,第11358-11367页,2021年。一、二、五、六[35] Y.杨角,澳-地冯,Y. Shen和D.田 FoldingNet:点云自动编码器通过深网格变形。在IEEE计算机视觉和模式识别会议论文集,第206-215页,2018年。2[36] W. 伊凡湖Rahmann和O.索金-霍恩几何一致的神经形状表示与隐式位移场,2021年。三、五、八
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![pptx](https://img-home.csdnimg.cn/images/20210720083543.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 电力电子系统建模与控制入门
- SQL数据库基础入门:发展历程与关键概念
- DC/DC变换器动态建模与控制方法解析
- 市***专有云IaaS服务:云主机与数据库解决方案
- 紫鸟数据魔方:跨境电商选品神器,助力爆款打造
- 电力电子技术:DC-DC变换器动态模型与控制
- 视觉与实用并重:跨境电商产品开发的六重价值策略
- VB.NET三层架构下的数据库应用程序开发
- 跨境电商产品开发:关键词策略与用户痛点挖掘
- VC-MFC数据库编程技巧与实现
- 亚马逊新品开发策略:选品与市场研究
- 数据库基础知识:从数据到Visual FoxPro应用
- 计算机专业实习经验与项目总结
- Sparkle家族轻量级加密与哈希:提升IoT设备数据安全性
- SQL数据库期末考试精选题与答案解析
- H3C规模数据融合:技术探讨与应用案例解析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)