没有合适的资源?快使用搜索试试~ 我知道了~
深度混合自先验的全三维网格生成
5805基于深度混合自先验的全三维网格生成魏兴奎1 †陈正清1 †付彦伟1†崔兆鹏2张银达3†1复旦大学2浙江大学3谷歌输入Poisson Point2Mesh Ours Poisson Ours图1.我们提出利用神经网络中的深度混合2D-3D自先验,从稀疏彩色点云生成高质量的纹理3D网格模型。摘要我们提出了一种深度学习管道,该管道利用网络自先验从彩色3D点云恢复由三角形网格和纹理图组成的完整3D模型。与以前的方法不同,无论是利用2D自先验进行图像编辑还是利用3D自先验进行纯表面重建,我们提出在深度神经网络中利用一种新的混合2D-3D自先验,以显着提高几何质量并产生高分辨率纹理图,这通常是商品级3D扫描仪输出中所缺少的。特别是,我们首先使用具有3D自先验的3D卷积神经网络生成初始网格,然后在2D UV图谱中编码3D信息和颜色信息,该图谱由具有自先验的2D卷积神经网络进一步细化。以这种方式,2D和3D自先验都被用于网格和纹理恢复。实验表明,该方法在不需要任何额外训练数据的情况下,从稀疏输入中恢复出高质量的三维纹理网格模型,在几何质量和纹理质量方面均优于现有方法。1. 介绍纹理网格是三维物体最理想的表示方法之一,它不仅可以实现三维相关任务,如三维物体的纹理表示,而且可以在工业设计和数字娱乐等领域得到广泛的*同等贡献†通讯作者项目 网页:https://yqdch.github.io/DHSP3D碰撞检测以及渲染能力。因此,创建由3D三角形网格和纹理贴图组成的完整3D模型的能力是一个长期存在的问题,并始终引起人们的虽然存在纯粹基于图像的解决方案[24],但具有主动照明的3D扫描仪通常提供更准确的3D模型,并且对具有挑战性的情况具有鲁棒性,例如无纹理区域。不幸的是,许多商品级3D扫描仪,例如Artec Eva [1],iReal 2S [3],Einscan Pro [2]等,仅生成彩色点云作为输出,缺少物体表面和纹理贴图。有很多从点云生成网格模型的工作,但它们通常依赖于强假设[42,36],需要在大型数据集上进行预训练[8,39,18,11],并且不产生纹理。在这项工作中,我们提出了一种方法重建完整的3D模型,即,一个纹理三角形网格,从一个彩色点云。这个任务是高度欠约束的,因此先验知识是非常重要的。众所周知,深度学习模型擅长从大型数据集学习先验知识[42,18,11],但同时也容易过度拟合数据集偏差。 相反,乌里扬诺夫 等人[48]提出了随机初始化卷积神经网络(CNN)来对给定图像进行上采样,它使用网络结构作为先验,而不需要任何额外的训练数据。分享类似的精神,我们诉诸于神经网络中自然编码的这种自我先验,用于完整的3D模型重建任务。作为最相关的现有技术之一, Hanocka等。[23]提出使用MeshCNN [22]从凸包变形,从点云创建一个没有纹理的网格。他们发现,基于图的CNN也可以学习自先验5806从输入点云重建一个3D网格,其中噪声被抑制,缺失部分被填充。尽管与以前的方法相比有了显著的改进,并且能够处理具有挑战性的情况,但是,其输出质量在很大程度上取决于输入噪声水平和稀疏性(参见第4.3节),并且3D网络自先验的效果在经验上并不像2D网络那样常见[48]。我们建议利用混合2D-3D自先验的全网格重建。具体来 说 , 我 们 首 先 利 用 3D MeshCNN [22] 以 类 似 于Hanocka等人的方式利用3D先验。[23]并生成初始3D网格模型。然后,我们创建一个UV图谱,对点的3D位置而不是颜色信息进行编码,然后由2D CNN使用自先验进行细化,并用于更新3D网格。我们发现,与3DMeshCNN相比,这个2D网络在学习自先验方面更有效,并且可以在生成具有精致细节的高分辨率网格时提供有价值的正则化。3D-prior和2D-prior网络迭代运行以细化3D网格模型,大量实验表明,我们的模型显著提高了几何质量。除了三角网格,我们的方法也恢复了高分辨率的纹理图。虽然从稀疏点云上的颜色构建这样的纹理图并不是微不足道的,因为纹理图通常具有比3D几何形状高得多的分辨率,例如,为了减少面部的数量,我们借用了2D自学习CNN的帮助,因为与3D基于图的卷积神经网络(GCN)相比,2D CNN上的自先验更强且更容易学习。使用从3D网格生成的相同UV图谱,我们训练2DCNN从稀疏点恢复颜色,并发现可以自动生成吸引人的纹理图。纹理图将与3D网格模型一起迭代优化。我们的贡献可归纳如下。首先,我们提出了一个深度学习管道,通过利用网络的自先验,从稀疏的彩色点云中重建一个具有三角网格和纹理图的完整3D模型。其次,一种新的混合2D-3D自先验利用在我们的管道,而无需学习任何额外的数据的几何和纹理恢复。实验表明,我们的方法优于传统和现有的基于深度学习的方法,并且2D先验和3D先验都有利于全网格重建。2. 相关工作传统的曲面重建方法从点云数据重建曲面有着悠久的历史。早期的方法如Delaunay三角剖分[9]和Voronoi图[6]通过创建三角网格来插值点。然而,当存在噪声时,结果表面通常是锯齿状的。因此,特殊数据预-通常需要加工以产生光滑表面。重建曲面的主流方法是基于隐函数方法,隐函数方法可以分为全局方法和局部方法。全局方法,如径向基函数(RBF)[10],一次考虑所有数据,并定义用于测试的标量函数如果一个点在曲面的内部或外部。相比之下,局部方法,如截断符号距离函数(TSDF)[17]和移动最小二乘(MLS)[7,34],只考虑附近点的子集。(屏蔽)泊松曲面重建的算法[30,31]结合了全局和局部方法的优点。该方法首先求出一个指示函数,然后利用该指示函数的梯度场求解泊松方程,最后提取等值面进行曲面重构。重建的模型是水密封闭的并且具有良好的表面细节,然而该方法需要准确的法向取向,依赖于密集的点云,并且难以处理非水密情况。深度学习为几何重建提供了新的机会,特别是在3D表示方面。3D卷[15,21]和点云[19,4,5]在许多早期作品中很流行,不幸的是,由于内存限制,这些作品通常限于低分辨率。最近,隐式表示[38,42,27,14,18,11]已经被研究,并且极大地改善了几何细节,但由于采样需要相对较长的推理时间,并且遭受过拟合训练集。刘某等人[36]建立了一个网络来估计输入点的局部连通性,以进行表面重建,其性能在很大程度上依赖于输入的质量。与我们类似,提出了一种基于图的CNN,用于直接在可供使用的三角网格中生成3D模型。一种常见的方法是从初始形状逐渐变形到所需的输出[22,49,13,29,43]。在学习指导下。另一方面,已经有很多关于从2D图像生成纹理的努力[46,28,53,41,47,26]。然而,很少有作品专注于学习与从点云观察到的稀疏颜色一致的纹理,这仍然是一个具有挑战性的问题。深度网络作为先验最近,深度图像先验(DIP)[48]已经显示出其强大的自监督2D图像重建任务(例如:图像超分辨率、去噪或修复)。后续工作[20,44,45]示出了用于多个低级2D视觉任务(例如,去雾、透明度分离、去模糊等)的深度捕获图像统计之前的能力。受[48]的启发,我们的方法旨在将2D深度先验转移到3D几何空间,这增强了平滑性和鲁棒性58073D深度自先验网络迭代更新投影UV展平2D深度自先验网络稀疏地图密集图全三维网格图2.我们的模型概述。我们的完整模型包含两个构建块,即3D深度自先验网络和2D深度自先验网络,它们迭代运行以改善几何和纹理输出。3D网格和纹理生成。对于3D表面重建,深度几何先验在[51]中给出,其适合点云的不同局部区域的MLP。Point2Mesh [23]重建通过优化基于CNN的自先验深度网络从输入点云生成表面网格[22]。在将网格形状编码为网络参数时,这些方法利用深度网络的表示能力来去除噪声。然而,来自非结构化3D数据的网络的3D先验不够强。因此,性能与输入点云的质量高度相关。3. 基于混合先验的给定彩色输入点云,我们的目标是用几何形状和纹理的精细细节重建相应的表面网格。我们设计了一个混合先验网络来利用3D和2D空间中的自先验,并且我们的系统的概述如图所示2.我们首先运行一个基于MeshCNN的3D自先验网络来重建一个初始的无纹理3D网格,然后提高几何质量,并以迭代的方式生成一个高分辨率的纹理图。特别地,在每次迭代中,我们首先使用当前几何网格构建纹理图谱,然后将输入稀疏点云的位置和颜色扭曲到纹理UV空间中,这分别生成稀疏位置UV图和稀疏颜色UV图。两个独立的2D自先验网络分别使用稀疏矩阵进行XYZ细化和RGB生成的训练。地图作为监督。我们使用预测的密集位置UV映射来更新3D网格中的顶点位置,然后将其馈送到3D自先验网络中进行另一次改进。该混合先验网络迭代地运行,直到几何网格和纹理输出稳定。3.1. 三维先验网络我们的模型从基于MeshCNN的3D-Prior网络开始,从输入点云创建初始网格。其主要目的是建立一个表面流形,便于使用2D先验(第2节)。3.2.2)。与Point2Mesh [23]类似,给定初始点云,生成凸包作为初始网格,该网格将变形为目标形状。在初始凸包的边缘上构建一个图,可以在其上运行MeshCNN以产生更新3D形状的顶点位移。每个图节点上的特征(其对应于网格中的边缘)被分配为从高斯分布采样的随机向量,并且MeshCNN被训练为通过最小化Cham来使网格变形。到输入点云的距离。一旦收敛,网格拓扑通过使用[25]中的方法重建具有更多顶点的新的不透水网格来更新,然后使用MeshCNN再次细化。我们应用倒角距离损失(等式1)以及边缘长度正则化(Eq.2)对于3D-Prior网络。损失函数被定义为L=λ0Lchamfer+λ1Ledge,其中λ0和λ1平衡损失项,并且在我们的实验中根据经验分别设置为1.0和0.2L倒角5808Σ2NNNq2p××和L边缘用以下等式计算Lchamfer=Σminp−q2+Σminp−q2,(1)pq使用L2损失,并产生密集的XYZ地图,其结构可以在补充材料中找到。注意,2D U-Net在每个整数处预测(x,y,z)。ger像素位置,而输入点的uv坐标通常是浮动点。获得准确L边缘=pk∈ΣN(p)p−k监督从稀疏的其中,p是生成的网格的顶点x;p是点sam。从生成的网格表面填充;q是输入点云中的点;(p)是一个环的邻元,生成的网格中p的tex。请注意,损失函数与Point2Mesh中的损失函数略有不同。我们发现Point2Mesh中的波束间隙损耗是计算昂贵的对我们的系统影响有限。同时,在网络中加入边长度的正则化项,加快了网络的收敛速度。3.2. 二维先验网络然后,我们通过2D先验网络细化网格,核心思想是创建3D网格的2D表示,可以在2D CNN中使用强自先验有效地细化。3.2.1创建XYZ贴图在本节中,我们将介绍如何创建可以通过2D CNN细化的3D网格的2D表示。我们首先使用OptCuts [35]从初始网格创建UV图谱,而理论上任何关于UV空间连续性的图谱生成方法也可以工作,补充材料中提供了更多讨论。然后,对于输入点云中的每个点q,我们在初始网格上找到其最近的p。然后,我们查询三角形面ID和三角形内的重心坐标以计算纹理图谱中的uv坐标,q的(x,y,z)被分配在该坐标处最后,创建UV空间中的稀疏三维XYZ图,以记录输入点云中所有点的3D位置,如图所示。2.我们还尝试建立一个距离UV地图w.r.t.一个锚点,但发现它不如XYZ地图有效。3.2.2XYZ贴图细化然后,我们训练一个网络,以产生一个密集的XYZ地图,由稀疏的一个。我们采用在DIP之后具有跳跃连接的2D U形网[48]。网络将随机噪声特征图z+ε作为输入,并且网络的权重被随机初始化。 z是从高斯分布采样的32高度宽度随机向量(0,0。(1)在训练中固定。是一个小的高斯排列(0,0. 02)添加到z以防止网络过拟合,其在每次转发传递时改变。该网络由稀疏XYZ图监督根据子像素位置上的预测的密集XYZ图有地面真相的观点。利用来自2D先验网络的密集XYZ图,我们通过将顶点位置更新为预测的密集XYZ图中的值来直接更新3D网格。 图3示出了示例。与初始网格(图3(a))相比,2D先验细化网格(图3(b))更平滑,具有一些尖峰,并且折叠区域被固定。3.3. 具有2D和3D先验的通过XYZ贴图进行的细化显著改善了3D几何图形的大部分,并增强了平滑度。然而,出现了一些明显的伪影,这通常发生在映射到UV图谱中的有效区域的边界的位置上。一个可能的原因是2D先验网络在没有任何监督信号的情况下完成区域时很弱,例如。UV图谱上的无效区域,并且错误被传播到有效区域的边界上的少数像素,从而引入翻转面和离群点顶点。我们尝试将UV图谱有效区域扩展为几个像素,这是许多以前的方法通常采用的方法,但发现这并不有效,因为监督太稀疏。为了解决这个问题,我们将更新后的网格发送回3D先验网络进行另一次改进,并发现3D先验网络在保持2D先验网络的好处并通过更强的监督和正则化去除伪影方面非常有效(图3(c))。两个网络可以迭代地运行以逐渐改善表面质量。3.4. 纹理重建虽然大多数以前的作品只在表面重建,我们的模型也可以产生一个高分辨率的纹理,特别是补充商品3D扫描仪,因为纹理图和彩色图像通常不提供。由于2D-prior网络,我们将输入点云的(r,g,b)编码到稀疏UV图中,而不是位置(x,y,z),并运行2D-prior网络以重建由来自输入点云的稀疏信号监督的密集纹理图。注意,也可以直接为MeshCNN框架中的每个点产生颜色,但是分辨率,即来自大约10K点的颜色,远不足以提供视觉上吸引人的渲染质量,例如,480K像素,甚至VGA分辨率。5809↑ ↓ ↓ ↑F评分↑CD↓EMD↓NC↑泊松95.6 0.0630 0.1285 0.908图3. 使用2D-3D先验网络的迭代修正。3.5. 实现细节MeshCNN优化所需的GPU内存随着网格分辨率的增加而线性增加。根据Point2Mesh [23],我们将网格切割成多个部分,以保证每个部分的面少于6000在不同部分之间存在重叠区域,并且最终顶点位置输出是所有重叠的平均值。整个架构在Pytorch中实现,并使用Adam Optimizer[33]进行优化。对于3D先验网络,初始网格包含2000个顶点。在每次细化迭代中,3D先验网络以1 e-3的学习率优化2000步,2D先验网络优化4000步。网格细化3次迭代,因为性能通常饱和。整个生成过程大约需要2.5小时,其中3D预初始化、2D预细化、3D预细化分别需要90、20、40分钟。与3D先验网络相比,2D先验网络花费更少的时间。2D先验网络的运行时间相对于面的数量是相对恒定的,而3D先验网络的运行时间相对于面的数量大致线性地增长。同时,我们的初始化阶段比Point2Mesh快,后者需要3个多小时。4. 实验在本节中,我们将评估我们的方法用于全3D网格模型生成。我们首先展示我们的系统的整体性能,然后分别评估几何和纹理的质量。我们强调我们的2D网络的几何和纹理重建的有效性。4.1. 数据和评估指标我们收集了14个地面实况网格进行评估,包括来自3D模型库turbosquid1和free3D2的动物、人和飞机。所有模型都是具有高质量纹理的3D网格,原始网格中的顶点数量从8000到50000不等。为了与Point2Mesh [23]进行公平的比较,我们尽了最大努力收集了与[23]相似的测试集,其中包含来自Thingi10K [52]的4个网格,来自COSEG [50]的18个网格和来自ShapeNet [12]的10个网格。31https://www.turbosquid.com2https://free3d.com3请注意,Point2Mesh的确切测试集尚未公开发布。表1.在合成数据上与其他曲面重建方法进行了比较。粗体:最佳。CD:倒角距离。NC:正常稠度。我们综合生成输入点云均匀采样的网格表面的颜色。每个点云有25000个彩色点,除了兔子有10000个点,因为它的结构相对简单。为了评估重建模型的准确性,我们使用F分数[23]。并对切角距离、正态一致性和地球运动距离(EMD)进行了定量比较。为了计算,我们分别在地面实况和预测网格的表面上采样500K个点,并且根据经验发现这些点足够密集以计算稳定的度量。对于F分数,我们将距离阈值设置为0.1,每个模型的最长维度的跨度缩放为100。数据集方法F-评分CD EMD NCP2 M 93.4 0.0428 0.12200.841Thingi10k我们的96.10.03750.11260.884COSEGP2M92.80.04220.13270.925我们96.20.03490.10830.954ShapeNetP2M91.40.05330.14170.895我们95.70.04050.11640.936表2.与Point2Mesh比较。粗体:最佳。CD:倒角距离。NC:正常稠度。4.2. 全三维网格生成我们首先展示了由我们的模型生成的纹理网格的质量。图4示出了在具有和不具有生成的纹理的情况下可视化的输入彩色点云和生成的网格。总的来说,我们的方法成功地恢复薄的几何形状,例如。狗的耳朵和鸟的翅膀,和纹理与尖锐的边界和细节。作为比较,我们展示了泊松重建[31]其中,使用MeshLab [16]中的实现计算表面法线,以获得众所周知的准确性和鲁棒性,并通过线性混合输入点云的颜色生成纹理[32]。从图4中,我们的方法在几何和纹理的质量上明显优于其他方法。我们将稀疏XYZ图和纹理图以及来自图1中的方法的密集预测可视化。6.我们为vi增加点的大小(每个点4个像素)-(a)初始网格(b)2D先验网格(c)细化网格P2m97.20.1068 0.941MPC-IER93.22009年12月31日Points2Surf90.41191 0.903我们97.70.0526 0.09695810输入Poisson我们的Poisson Point2Mesh我们的图4.合成数据比较。我们展示了几何和纹理都有全方位困难的例子,例如,狗和飞机具有更复杂的几何形状,而鸟具有挑战性的纹理。请参阅我们的补充资料,与更多方法进行比较。由 于 原始 输 入 太 稀疏 而 无 法 看 到, 因 此 需 要进 行sualization。即使有这样稀疏的输入,网络仍然能够产生密集的输出,并在迭代过程中改善细节。4.3. 曲面重构在本节中,我们评估了表面重建的定量精度,结果如表1所示。1. 除了Poisson曲面重建[31]和Point 2 Mesh [23]之外,我们还比较了Points 2Surf [18]和MPC-IER [36]的曲面重建。请注意,它们都需要额外的3D数据进行训练,而我们不需要,只是纯粹依赖于自先验。我们的方法在所有方法中取得了最好的成绩,表明我们的几何形状比其他方法更准确。 我们的方法也在Thingi10K、COSEG和ShapeNet上显示出始终优于Point2Mesh的性能,如Tab. 2. 请注意,对于表面重建,Point2Mesh可以被认为是我们的方法的消融,而没有2D自先验。因此,我们的改进主要得益于使用所提出的混合2D-3D先验。我们还显示的性能w.r.t迭代中的补充材料。定性结果见图。4.我们可以看到,泊松重建为薄结构生 成 了 不 正 确 的 网 格 , 例 如 , 鸟 和 飞 机 的 翅 膀Point2Mesh的结果相对嘈杂,例如,狗的耳朵和飞机的翅膀,由于其弱的3D自优先。相比之下,我们的方法具有最好的性能与光滑的网格和正确的薄结构。5811输入泊松Poisson Points 2Surf MPC-IER Point 2 MeshOurs图5.我们的方法和其他表面重建方法与实际扫描的比较。稀疏映射步骤1000步骤2000步骤4000稀疏图和生成的密集图在不同的训练步骤。众所周知,表面重建的质量高度依赖于输入点云的质量。我们通过手动添加具有标准差的输入Poisson P2M Ours图7.与其他有噪声输入的表面重建方法的比较。作为输入点云上原始坐标值的2%,结果如图所示。7.Pois-son和Point 2 Mesh都容易受到噪声的影响5812×(a) F评分(b)倒角图 8. 与 具 有 不 同 稀 疏 度 的 Screen Poisson 重 建 和Point2Mesh的比较。(a)F-评分方法。越高越好。(b)倒角公制。越低越好。投入和表面质量比我们的差。特别是,Point2Mesh的结果中反映出更多的噪声,这表明3D GCN中的自先验不够强。相比之下,我们的方法利用混合2D-3D自先验仍然通过去除XYZ图中的噪声来更多结果泊松我们泊松泊松我们在补充材料中提供了关于纹理生成的不同噪声水平和鲁棒性。我们还测试了模型在稀疏输入点云上的鲁棒性。我们运行Poisson,Point2Mesh和我们的方法,通过采用不同数量的点的输入点云,并在图中显示性能。8.正如预期的那样,当输入点数减少时,所有方法的性能都会下降,但我们的性能下降得比其他方法慢,这再次表明2D-3D自先验对于插入相对较大的缺失区域是强大的。补充材料中提供了更多的定性结果。4.4. 纹理重建在本节中,我们评估我们的纹理重建。 在我们的设置下,要找到以前针对这个特定任务的代码并不容易,所以我们与Kazhdan等人进行比较。[32]其在Meshlab中用泊松曲面重构来实现。 在图9中,我们示出了重建网格上的纹理并突出显示了一些区域。我们的方法明显优于基线方法,特别是在边缘上,其中基线纹理往往是模糊的,而我们的通常是尖锐的。我们还构建了一个MeshCNN基线方法,该方法直接预测MeshCNN [22]框架中每个点的颜色,并在补充材料中提供了比较。对于定量测量,我们在16个不同视图中均匀渲染生成的彩色网格[37],并评估渲染的4096 4096图像的自然度图像质量评估器(NIQE)评分[40]。NIQE是仅考虑感知质量的无参考度量。MeshCNN基线、Poisson和我们的方法的NIQE结果分别为20.39、20.65和19.35(较低)。图9.与Poisson曲面重构方法在纹理质量上的比较.我们的方法产生更好的质量,特别是在边缘的纹理。更好),这表明我们的显示出更好的视觉质量。4.5. 推广到实际扫描我们还测试了我们的方法如何执行从商品3D扫描仪收集的扫描我们使用华为3D Live Maker采集了五个物体的3D纹理点云,每个点云包含约30000个点。注意,点的噪声和稀疏性不是理想地均匀的,并且因此这些数据对于全网格重构更具挑战性。 图5示出了这些扫描的结果。 比较与其他方法相比,我们在光滑表面、尖锐边界、薄结构和稀疏区域产生总体上更好的几何形状。我们的纹理也比Kazhdan等人更清晰。[32]例如,日历上的飞机,植物和马里奥脸。5. 结论我们提出了一种利用深度神经网络中的自先验从彩色点云重建纹理网格的方法。一种新的混合的2D-3D自先验的开发迭代的方式。基于使用具有3D自先验的3D卷积神经网络的初始网格生成,生成2D UV图谱并用于编码3D信息和颜色信息,这些信息可以由具有自先验的2D CNN进一步细化。实验结果表明,该方法优于SOTA方法。鸣谢本工作得到了国家自然科学基金项目62076067的部分支持。我们5813引用[1] 3d物体扫描仪artec eva. https://www.artec3d的网站。com/portable-3d-scanners/artec-eva.[2] EinScan Pro.https://www.einscan.com/手持三维扫描仪/einscan-pro-hd/.[3] Ireal 2S彩色3D扫描仪 https://www.3d-scantech.com/product/ireal-2s-color-3d-scanner.[4] Panos Achlioptas,Olga Diamanti,Ioannis Mitliagkas,and Leonidas Guibas. 三维点云的表示学习和对抗生成。arXiv预印本arXiv:1707.02392,2(3):4,2017。[5] Panos Achlioptas,Olga Diamanti,Ioannis Mitliagkas,and Leonidas Guibas. 三维点云的学习表示与生成模型。在机器学习国际会议上,第40-49页[6] 尼娜·阿门塔马歇尔·伯恩和马诺利斯·卡姆维塞利斯一种新的基于Voronoi的曲面重建算法。在1998年第25届计算机图形学和交互技术年会的论文集,第415[7] 妮 娜 · 阿 门 塔 和 吉 勇 珠 定 义 点 集 曲 面 。 ACMTransactions on Graphics(TOG),23(3):264[8] Abhishek Badki 、 Orazio Gallo 、 Jan Kautz 和 PradeepSen. Meshlet先验,用于三维网格重建。在IEEE/CVF计算机视觉和模式识别会议论文集,第2849-2858页[9] 让·丹尼尔·博索纳三维形状表示的几何结构。ACMTransactions on Graphics(TOG),3(4):266[10] Jonathan C Carr、Richard K Beatson、Jon B Cherrie、Tim J Mitchell、W Richard Fright、Bruce C McCallum和Tim R Evans。基于径向基函数的三维物体重建与表示 在 Proceedings of the 28th annual conference onComputer graphics and interactive techniques,pages 67[11] Rohan Chabra , Jan Eric Lenssen , Eddy Ilg , TannerSchmidt , Julian Straub , Steven Lovegrove , andRichard Newcombe.深度局部形状:学习局部sdf先验,用于详细的3d重建。欧洲计算机视觉会议(ECCV),2020年。[12] 天使XChang,Thomas Funkhouser,Leonidas Guibas,Pat Hanrahan , Qixing Huang , Zimo Li , SilvioSavarese , Mano-lis Savva , Shuran Song , Hao Su ,Jianxiong Xiao,Li Yi,and Fisher Yu.ShapeNet:一个信息丰富的3D模型库。技术报告arXiv:1512.03012[cs.GR],2015。[13] ChaoWen,Yinda Zhang,Zhuwen Li,and Yanwei Fu.Pixel2mesh++:通过变形生成多视图3D网格在ICCV,2019年。[14] Julian Chibane,Thiemo Alldieck,Gerard Pons-Moll.特征空间中的隐式函数用于三维形状重构和补全。在IEEE/CVF计算机 视觉和模 式识别会议 论文集, 第6970-6981页[15] Christopher Bongsoo Choy , Danfei Xu , JunYoungGwak,Kevin Chen,and Silvio Savarese. 3d-r2 n2:统一的应用程序-用于单视图和多视图3D对象重建的方法。在ECCV,2016年。[16] Paolo Cignoni、Marco Callieri、Massimiliano Corsini、MatteoDellepiane、FabioGanovelli和GuidoRanzuglia。Meshlab:一个开源的网格处理工具。在Euro- graphics Italian chapter conference,卷2008,第129-136页中。萨勒诺,2008年。[17] Brian Curless和Marc Levoy。从距离图像建立复杂模型在 Proceedingsofthe23rdannualconferenceonComputer graphics and interactive techniques,pages 303[18] 放大图片创作者:Philipp Erler,Paul Guerrero,StefanOhrhallinger , Niloy J. Mitra 和 Michael Wimmer 。Points2surf:从点云学习在ECCV,2020年。[19] Haoqiang Fan,Hao Su,and Leonidas J Guibas.从单幅图像重建三维物体的点集生成网络在IEEE计算机视觉和模式识别会议论文集,第605[20] YossiGandelsman , AssafShocher , andMichalIrani.“ 双 陷 在 IEEE 计 算 机 视 觉 和 模 式 识 别 会 议(CVPR),第6卷,第2页,2019年。[21] 放大图片作者:David F.福伊,米克尔·罗德里格斯,阿布·希纳夫·古普塔.学习对象的可预测和生成矢量表示。在ECCV,2016年。[22] Rana Hanocka、Amir Hertz、Noa Fish、Raja Giryes、Shachar Fleishman和Daniel Cohen-Or。Meshcnn:一个有 边 缘 的 网 络 ACM Transactions onGraphics(TOG),38(4):1[23] Rana Hanocka , Gal Metzer , Raja Giryes 和 DanielCohen- Or。Point2mesh:可变形网格的自先验。ACM事务处理图表,39(4),2020.[24] Richard Hartley和Andrew Zisserman。计算机视觉中的多视几何学。剑桥大学出版社,2003年。[25] Jingwei Huang,Hao Su,and Leonidas Guibas.shapenet模型的鲁棒水密流形曲面生成方法arXiv预印本arXiv:1802.01698,2018。[26] Jingwei Huang , Justus Thies , Angela Dai , AbhijitKundu , Chiyu Jiang , Leonidas J Guibas , MatthiasNießner,and Thomas Funkhouser.基于rgb-d扫描的对抗性纹理优化在CVPR,2020年。[27] Chiyu Jiang,Avneesh Sud,Ameesh Makadia,JingweiHuang,Matthias Nießner,and Thomas Funkhouser.三维场景的局部隐式网格表示。在IEEE/CVF计算机视觉和模式识别会议论文集,第6001-6010页[28] Angjoo Kanazawa、Shubham Tulsiani、Alexei A Efros和Jitendra Malik。从图像集合中学习特定类别的网格在欧洲计算机视觉会议(ECCV)的会议记录中,第371- 386页[29] Hiroharu Kato、Yoshitaka Ushiku和Tatsuya Harada。神经三维网格渲染。在CVPR,2018年。[30] Michael Kazhdan,Matthew Bolitho,and Hugues Hoppe.泊松曲面重建在Proceedings of the fourth Eurographicssymposium on Geometry processing,第7卷,2006中。5814[31] Michael Kazhdan和Hugues Hoppe筛选泊松曲面重建。ACM Transactions on Graphics(ToG),32(3):1[32] 米莎·卡兹丹和雨果·霍普计算机图形学中应用的自适应在Computer Graphics Forum,第38卷,第138Wiley在线图书馆,2019年。[33] Diederik P Kingma和Jimmy Ba。Adam:随机最佳化的方法。arXiv预印本arXiv:1412.6980,2014。[34] 大卫·莱文 网格无关曲面插值。 在Geometric modeling for scienti fic visualization,pages 3749. Springer,2004.[35] 放大图片作者:李敏辰,Danny M.弗拉基米尔·考夫曼金贾斯汀·所罗门和阿拉·谢弗Optcuts:曲面切割和参数化的联合优化。ACM Siggraph Asia,2018。[36] Minghua Liu,Xiaoshuai Zhang,and Hao Su.用预测的内在-外在比率制导的网格在ECCV,2020年。[37] RicardoMartin-Brualla 、 RohitPandey 、 SofienBouaziz、Matthew Brown和Dan B Goldman。Gelato:生成的潜在纹理对象。在ECCV,2020年。[38] LarsMescheder,MichaelOechsle,MichaelNiemeyer , Se-bastianNowozin , andAndreasGeiger.Occupancy networks:Learning 3d reconstructionin function space.IEEE Conf. 计算机视觉和模式识别(CVPR),2019年。[39] Zhenxing Mi,Yiming Luo,and Wenbing Tao.Ssrnet:可缩放的三维表面重建网络.在IEEE/CVF计算机视觉和模式识别会议论文集,第970-979页[40] Anish Mittal、Rajiv Soundararajan和Alan C Bovik。制作IEEE Signal processing letters,20(3):209[41] MichaelOechsle、LarsMescheder、MichaelNiemeyer、Thilo Strauss和Andreas Geiger。纹理场:学习函数空间中的纹理表示。在IEEE计算机视觉国际会议论文集,第4531-4540页[42] 郑俊朴、彼得·弗洛伦斯、朱利安·斯特劳布、理查德·纽科姆和史蒂文·洛夫格罗夫。Deepsdf:学习连续符号距离函数用于形状表示。在IEEE计算机视觉和模式识别会议论文集,第165-174页[43] 乔尼·K Pontes,Chen Kong,Sridha Sridharan,SimonLucey,AndersEriksson,andClintonFookes.Image2mesh:一个用于单幅图像3D重建的学习框架。技术报告arXiv:1711.10669 [cs.CV],2017。[44] 禹 辉 泉 、 陈 明 琴 、 庞 通 瑶 、 慧 姬 。 Self2self 与dropout:从单个图像学习自监督去噪。在IEEE/CVF计算机视觉和模式识别集,第1890-1898页[45] Dongwei Ren , Kai Zhang , Qilong Wang , QinghuaHu,and Wangmeng Zuo.使用深度先验的神经盲反卷积IEEE/CVF Conference on Com-计算机视觉和模式识别,第3341-3350页,2020年。[46] Shunsuke Saito , Lingyu Wei , Liwen Hu , KokiNagano,and Hao Li.使用深度神经网络进行真实感面部纹理推断。在IEEE计算机视觉和模式识别会议论文集,第5144[47] Yongbin Sun , Ziwei L
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功