没有合适的资源?快使用搜索试试~ 我知道了~
7203PU-GAN:一个点云上采样对抗网络李瑞辉1李贤智1,3傅志荣1,3柯理浩2彭安恒1,31香港中文大学2特拉维夫大学3中国科学院深圳先进技术研究院广东省计算机视觉与虚拟现实技术重点实验室{lirh,xzli,cwfu,pheng}@ cse.cuhk.edu.hkdcor@mail.tau.ac.il摘要从距离扫描获取的点云通常是稀疏的、嘈杂的和不均匀的。本文提出了一种新的点云上采样网络PU-GAN1,该网络基于生成对抗网络(GAN),可以从潜在空间中学习丰富的点分布,并对物体表面上的点进行上采样。为了实现一个工作的GAN网络,我们在生成器中构建了一个上下向上扩展单元,用于上采样点特征,具有误差反馈和自校正,并制定了一个自注意单元,以增强特征集成。此外,我们设计了一个包含对抗项、均匀项和重构项的复合损失,以激励学习器学习更多的潜在模式,提高输出点分布的均匀性。定性和定量评价表明,我们的结果在分布均匀性、表面接近度和3D重建质量方面优于最先进的结果1. 介绍点云是3D扫描的标准输出。近年来,它们作为三维数据的紧凑表示和三维几何处理的有效手段越来越受欢迎。然而,从深度相机和LiDAR传感器产生的原始点云通常是稀疏的、有噪声的和不均匀的。这在各种公共基准数据集中得到了证明,例如KITTI [8]、SUNRGB-D [28]和ScanNet [6]。显然,原始数据需要被修改,然后才能有效地用于渲染、分析或一般处理。给定一个稀疏的,嘈杂的,非均匀的点云,我们的目标是上采样它,并生成一个密集的,完整的,均匀的点云,作为底层表面的忠实表示。考虑到这样一个不完美的输入,这些目标很难实现,因为,除了1https://liruihui.github.io/publication/PU-GAN/图1.通过使用(c)PU-Net [40](CVPR 2018)对(a)实际扫描的KITTI数据集[8](d)MPU [38](CVPR 2019),以及(e)我们的PU-GAN。注意输入中的离散非均匀性和稀疏性。在对数据进行上采样时,我们需要填补数据中的小漏洞和空白,同时提高点分布的均匀性。早期的方法[3,21,14,15,33]是基于优化的,其中使用各种形状先验来约束点云生成。最近,深度神经网络带来了数据驱动方法解决这个问题的希望。网络架构,包括PU-Net [40],EC-Net [39]和最近的MPU[38],已经证明了通过学习对点云进行上采样的优势。然而,这些网络可能不会从特别稀疏和不均匀的低质量输入中产生合理的结果;在图1(c)-(e)中,我们展示了一个典型的例子,展示了我们方法的优势7204i=1i=1PQPQQQPRNQ{}与其他网络不同,它将完整性和均匀性与上采样结合在一起。在这项工作中,我们提出了一个新的点云上采样框架,即PU-GAN,结合了上采样数据修正能力。关键的贡献是一个对抗网络,使我们能够训练生成器网络,以学习从潜在空间中生成丰富的点分布,以及一个对抗网络,以帮助隐式特别地,GAN框架的对抗性学习策略可以从全局角度规范预测,并对偏离目标的输出进行惩罚。然而,成功地训练工作GAN框架已知是具有挑战性的[9,25],特别是在生成器和鉴别器之间平衡以及避免不良收敛趋势因此,我们首先通过构造上-下-上单元来改进点生成质量,或者等效地改进生成器的特征扩展能力,以通过上采样点特征的差异来扩展点特征以用于自校正。此外,我们制定了一个自我关注单元,以提高功能集成质量。最后,我们进一步设计了一个复合损失来训练网络端到端的对抗,均匀和重建条款,以提高结果的分布均匀性,并鼓励判别器学习目标分布中的更多潜在模式。为了评估PU-GAN的上采样质量,我们采用四个指标来评估其在各种合成和真实扫描数据上的性能。大量的实验结果表明,我们的方法优于其他方面的分布均匀性,接近表面,和三维重建质量。2. 相关工作基于优化的上采样。为了对点集进行上采样,Alexa等人的开创性方法。 [3]在局部切空间中的Voronoi图顶点处插入点。后来,Lipman等人。 [21]引入了局部最优投影(LOP)算子,以重新采样点并基于L1范数重建曲面。不久之后,Huang等人。 [14]设计了一种加权LOP,采用迭代法向估计来合并具有噪声、离群值和非均匀性的点集。 Huang等人 [15]进一步开发了一种称为边缘感知的点集重新排序的渐进方法。后来,Wu等人 [33]提出了一种合并方法,通过引入新的深点表示来填充大孔并完成缺失区域总的来说,这些方法不是数据驱动的;他们严重依赖于先验,例如,光滑曲面的假设、法向估计等。基于深度学习的上采样。近几年来,已经设计了几种深度神经网络来学习特征直接从点集,例如、PointNet [23]、PointNet++[24]、SpiderCNN [35]、KCNet [26]、SPLAT-Net [29]、PointCNN [20]、PointConv [13]、PointWeb[44]、DGCNN [31]等。与从部分输入生成整个对象的点补全[41,10基于Point- Net++架构,Yu等人。 [40]引入了一个深度神经网络PU-Net来对点集进行上采样。PU-Net工作在面片上,并通过在特征空间中混合和混合点特征来扩展点集后来,他们引入了EC-Net[39],通过公式化边缘感知联合损失函数来最小化点到边缘的距离,进行边缘感知点云上采样 最近,Wanget al. [38]提出了一种多步渐进上采样(MPU)网络,以进一步抑制噪声并保留细节。在这项工作中,我们提出了一种新的方法来上采样点云公式化的GAN框架,使我们能够生成更高质量的点样本的完整性和均匀性。基于GAN的3D形状处理。与传统的CNN相比,GAN框架使用鉴别器来隐式学习以评估从生成器产生的点集。这种灵活性特别有利于生成任务[19,16,43],因为我们希望生成器可以生成丰富多样的输出模式。近年来,在将GAN应用于三维形状处理方面有一些启发性的工作。他们中的大多数专注于从概率空间[32]或从2D图像[36,11,27]生成3D对象。此外,Wang等人 [30]介绍了一种用于形状完成的3D-ED-GAN,将损坏的3D扫描作为输入。然而,这些方法只能使用3D体积作为体素表示中的输入或输出形状。Achlioptas等人。 [2]首先调整GAN模型以在原始点云上操作,以增强表示学习。据我们所知,没有先前的工作开发用于点云上采样的GAN模型。3. 方法3.1. 概述给定N个点的无序稀疏点集P={pi}N,我们的目标是生成rN个点的密集点集=qi,其中r是上采样率。而输出不一定是的超集,我们希望它满足两个要求:(i)应描述与相同的潜在目标物体的基本几何形状,因此应躺在覆盖目标物体表面上;以及(ii)即使对于稀疏和非均匀输入P,Q中的点也应该均匀分布在目标对象表面上。图2显示了PU的整体网络架构GAN,其中生成器从稀疏输入中产生密集输出,而搜索引擎的目标是找到虚假的生成结果。 接下来,我们先来详细介绍一下archi-7205DP×××图2.PU-GAN的生成器和鉴别器架构概述 注意,N是输入P中的点数; r是上采样率;C、C′、Cd和C′是特征通道的数量,在我们的实现中分别为480、128、64和256。发生器和鉴别器的结构(第3.2节)。然后,我们提出了我们的架构中的两个构建块:上-下-上扩展单元(3.3节)和自我注意单元(3.4节)。最后,我们提出了带复合损失的基于补丁的训练策略(第3.5节)。3.2. 网络架构3.2.1发生器如图2顶部所示,我们的生成器网络具有三个组件来连续处理输入P:特征提取组件旨在从N d的输入中提取特征F,其中d是输入点属性中的维数,即、坐标、颜色、法线等。在这里,我们专注于d = 3的最简单情况,仅考虑3D坐标,并采用[ 38 ]中的最新特征提取方法,其中引入密集连接以整合不同层的特征。特征扩展组件扩展F以产生扩展特征Fup;这里,我们设计了up-down-up扩展单元(见图2(上))来增强F up中的特征变化,使生成器能够产生更多样化的点分布;详见第3.3节。点集生成组件首先经由一组多层感知器(MLP)从F向上回归一组3D坐标由于特征扩展过程仍然是局部的,这意味着F up中的特征(或等效地,潜在空间中的点)本质上接近输入,因此我们在网络中包括最远的采样步骤,以仅保留彼此远离的rN个点;请参见图2中的绿色框。为了允许这种选择,当我们将F扩展到Fup时,我们实际上在Fup中生成(r+ 2)N个特征。该策略进一步增强了点集分布的均匀性,特别是从全局的角度来看。3.2.2鉴别器鉴别器的目标是区分其输入(一组rN个点)是否由生成器产生。为此,我们首先采用[41]中的基本网络架构来提取全局特征,因为它有效地结合了局部和全局信息,并确保了轻量级网络。为了改进特征学习,我们在特征连接之后添加了一个自注意单元(参见第3.4节);参见图2中的中间部分(底部)。与基本MLP相比,该注意力单元有助于增强特征集成,提高后续特征提取能力。接下来,我们应用一组MLP和最大池化来产生全局特征,并通过一组完全连接的层进一步回归最终的置信度值如果该置信度值接近1,则该预测器预测输入可能来自具有高置信度的目标分布,否则来自生成器。3.3. 向上向下向上扩展单元为了对点集进行上采样,PU-Net [40]复制点特征并使用单独的MLP独立地处理每个副本然而,扩展的特征将与输入过于相似,从而影响上采样质量。最近的MPU方法[38]不是单步扩展,而是将16个上采样网络分解为四个连续的2个上采样网络,以便在多个步骤中逐步上采样。虽然在上采样结果中更好地保留了细节,但是训练过程复杂并且需要更多子集以获得更高的上采样率。在这项工作中,我们构造了一个上-下-上扩展单元来扩展点特征。为此,我们首先对点特征进行上采样(在MLP之后)以生成F′上采样和下采样(参见图3(顶部));然后,我们计算DIF,上采样之前和下采样之后的特征之间的参考(表示为k)。也通过上采样7206∼Q图3. up-down-up扩展单元(上)、up-feature operator(中)和down-feature operator(下)。对于fup,我们将fup添加到F′up以自校正扩展的特征;整个过程再次参见图3(顶部)这样的策略不仅避免了繁琐的多步训练,而且还有利于细粒度特征的生产。接下来,我们将讨论up-down-up扩展单元中的up-feature和down-feature操作器(另见图3):上功能操作员。为了对点特征上采样r次,我们应该增加重复特征之间的变化。这相当于将新点从输入点推开。在我们将输入特征图(N个特征向量和C′通道)复制r次后,我们采用FoldingNet [37]中的2D网格机制来生成每个特征图副本生成唯一的2D向量,并将这样的向量附加到同一特征图副本中的每个点特征向量;参见图3(中间)。此外,我们使用自注意单元(见第3.4节),然后使用一组MLP来产生输出上采样特征。下功能操作员。为了对扩展特征进行下采样,我们对特征进行整形,然后使用一组MLP来回归原始特征;参见图3(底部)。3.4. 自我注意单位为了引入长范围上下文依赖性以增强拼接后的功能集成,我们采用图4.自我注意单元的图示。图5.(a)在训练数据中的3D网格上的种子点(黑点)和补丁(蓝色圆盘)。(b)&(c)图块上的示例Q和P。通过另一个MLP从输入中提取的特征。最后,我们生成输出特征,它是输入特征和加权特征的总和。3.5. 基于补丁的端到端培训3.5.1培训数据准备我们训练我们的网络,以上采样局部组的点在物体表面的补丁。具体来说,对于训练集中的每个3D网格(在单位球面中归一化)(见第4.1节),我们使用在每个网格表面上随机找到200个种子位置,从每个种子中测地线地生长一个补丁(每个补丁占物体表面的5%),然后在单位球面内归一化每个补丁;参见图5(a)。在每个补丁上,我们进一步使用Poisson磁盘采样[5]来生成目标点集,这是补丁上的rN个点的目标点集。在训练过程中,我们生成网络输入P通过从Q中随机选择N个点来实现。3.5.2损失函数现在,我们呈现了为以端到端的方式训练PU-GAN而设计的复合损失。对抗性损失。为了以对抗的方式训练生成器网络G和鉴别器网络D,我们使用最小平方损失[22]作为我们的对抗损失:发生器中的自我注意单元[42](见图3(中间))以及发生器中的自我注意单元[42](见图2(底部))。图4展示了它的架构。具体来说,我们将Lgan(G)=122[D(Q)−1]12ˆ2(二)通过两个单独的MLP将输入特征输入G和H,以及然后从G和H生成注意力权重W,和Lgan(D)为2[D(Q)] +(D(Q)−1)],(3)W=fsoftmax (GTH),(1)其中,D(Q)是由D根据生成器输出Q预测的置信度值。在网络培训期间,G旨在其中fsoftmax表示softmax函数。然后,我们得到加权特征WTK,其中K是7207通过最小化Lgan(G)来生成Q以欺骗D,而D的目标是最小化Lgan(D),以学习区分Q和Qn。7208我QDL以鼓励更好的点覆盖。把它们放在一起,我们将均匀损失公式化为ΣMLuni=j=1U不平衡(Sj)·U杂波(Sj)。(六)图6. 具有相同点数(625)但不同点分布模式的示例点集;在p=1%时计算L uni。均匀损失。学习生成3D点集的问题是复杂的,在网络训练过程中有巨大的探索空间。特别地,我们的目标是均匀分布;仅使用对抗性损失图6示出了具有相同数量的点但具有不同的点分布模式的三个示例点集使用Luni,我们可以区分它们之间的点均匀性。重建损失。对抗性损失和均匀损失都不鼓励生成的点位于目标表面上。因此,我们使用地球移动器Σ网络很难很好地融合。 因此,我们公式-晚一个统一的损失,以评估Q从发电机,目的是Lrec=minφ:Q→Qq∈Q<$qi−φ(qi)<$2,(7)以提高发电机的发电能力为了评估点集因此,该度量忽略了点的局部杂乱。图6示出了具有非常不同的点分布的三个点片;由于它们包含相同数量的点,NUC度量不能区分它们的分布均匀性。我们的方法在网络训练过程中评估(一片rN个点),首先使用最远采样在Q中挑选M个种子点,然后使用半径的球查询r,d来裁剪点子集(表示为Sj,j= 1. M)在Q每一粒种子 在这里,我们使用一个小的rd,所以Sj大致等于在下垫面上面积为πr2的小的局部圆盘另一方面,由于我们通过测地线形成斑块,并在单位球面中对其进行归一化,因此斑块面积为<$π12。因此,Sj中的点的期望百分比(表示为p)为πr2/π12=r2,Sj其中φ:Q→Q是双射映射。复合损失。总的来说,我们通过最小化发电机的LG和发电机的L D来训练PU-GAN端到端:LG=λ gan L gan(G)+λ rec L rec +λ uni Luni,(8)和LD=(D), (9)其中λgan、λrec和λuni是权重。在训练过程中,G和D交替优化。4. 实验4.1. 数据集和实施详细信息我们从PU-Net [40]和MPU [38]的发布数据集以及Vision- air存储库[1]中收集了147个3D模型,涵盖了各种各样的对象,从简单和平滑的模型(例如,,二十面体)至com-D d(记作n)是rNp。因此,我们遵循卡方模型来测量|SJ|从n开始,定义(|SJ|−n)2复杂和高度详细的对象(例如,(看《易经》)见《易经》。所有的精神材料其中,我们随机抽取120个模型进行训练,其余的用于测试。在训练阶段,我们为每个训练裁剪了200个补丁-U不平衡e(Sj)=n.(四)模型(见第3.5.1节),并产生了24,000个补丁为了考虑局部点杂波,对于Sj中的每个点,我们找到它到最近的相邻点的距离,对于Sj中的第k个点,表示为dj,k。如果Sj是均匀分布,.所期望点到邻居的距离dk应该大致为2πr2这是基于假设Sj总共默认情况下,我们设置N= 256,r= 4,M= 50。此外,对于均匀损失,我们裁剪了一组Sj其中对于每个p∈{0.4%,0.6%,0.8%,1.0%,1.2%},计算Eq.(6)对每个集合进行五次,然后将结果相加作为等式中的uni项。(八)、为了避免训练中的过拟合,我们增加了网络|3|3平面,相邻点为六边形;参见图6(右)的说明和用于推导的补充材料。同样,我们遵循卡方模型来测量dj,k与dk的d,并定义通过随机旋转、缩放和点扰动高斯噪声。我们使用Adam算法[18]和两个时间尺度更新规则(TTUR)[12]对网络进行了100个时期的训练我们设置生成器和鉴别器的学习率分别为0.001和0.0001;后U杂波(Sj)=Σ|SJ|(dj,k-d)2ˆ.(五)720950k次迭代,我们通过衰减逐渐降低这两个速率每50k次迭代的速率为0.7,直到10−6。批量大小为k=1d28、λrec,λuni和λgan 根据经验设置为100,10,在这里,U杂波解释了局部分布均匀性,而U不平衡解释了非局部均匀性和0.5。我们使用TensorFlow实现了我们的网络,并在NVidia Titan Xp GPU上对其进行了训练。7210L图7.比较点集上采样(x4)和用不同方法(c-f)从输入(a)产生的表面重建结果在测试过程中,给定一个点集,我们遵循MPU [38]和EC-Net [39]中基于补丁的策略,使用远距离采样来挑选种子并提取每个种子N个然后,我们将补丁馈送到生成器,并将上采样结果组合为最终输出。4.2. 评估指标我们采用四个评价指标:(i)均匀性使用方程中的uni(6),(ii)使用测试模型的点到表面(P2 F)距离,(iii)倒角距离(CD)和(iv)Haus-dorff距离(HD)[4]。对于定量评价,我们采用泊松圆盘抽样,抽样8,192个点作为地面真理(例如,,见图7(b)),并随机选择2,048个点作为测试输入。 为了评估测试结果的均匀性(使用Eq. (6)),我们在每个结果上随机挑选M=1,000个种子,并且代替使用球查询来裁剪Sj,我们使用实际网格(测试模型)来在不同p的每个种子处测地线地找到Sj以进行更高质量的评估。度量值越低,上采样结果越好。4.3. 定性和定量比较我们将PU-GAN与三种最先进的点集上采样方法进行了定性和定量比较:7211L图8.利用PU-GAN对LiDAR采集的点云数据进行上采样[15 ][16][17][18][19][1 为了你,我们-使用发布的演示代码,并通过详尽地微调每个相关参数来生成最佳结果。对于PU-Net和MPU,我们使用了它们的公共代码,并使用我们的训练数据重新训练了它们的网络。表1示出了定量比较结果。我们的PU-GAN在所有评估指标中始终达到最低值特别是,我们的结果的均匀性保持最低的所有不同的p,表明由PU-GAN产生的点是更均匀的比那些由其他人在不同的尺度。除了定量结果外,我们还在图7中显示了各种模型的点集采样和表面重建(使用[17])结果。比较由以下方法产生的结果(f)我们的方法和(C-E)其它方法,相对于(B)在原始测试模型上均匀采样的地面真值点,我们可以看到其它方法倾向于产生更多噪声和不均匀的点集,从而导致重构表面中的特别是放大视图,显示PU-GAN可以在上采样结果中产生更细粒度的细节,例如大象的鼻子(上)和老虎的尾巴(下)。更多的比较结果可以在补充材料中找到。4.4. 对实际扫描数据进行上采样图8显示了PU-GAN生成的LiDAR点云(从KITTI数据集下载[8])的上采样结果。从第一行,我们可以看到输入的稀疏性和不均匀性。我们的PU-GAN仍然可以填补一些漏洞,并在结果中输出更均匀的点;请参阅补充材料了解更多结果。4.5. 消融研究和基线比较评估PU-GAN中的组件,包括GAN框架(即,拆下发电机,只保留发电机),升降式膨胀装置,自表1.与最先进技术进行定量比较方法不同p(10−3)的均匀性P2f(10−3)CD(10−3)HD(10−3)百分之零点四百分之零点六百分之零点八百分之一点零百分之一点二[15]16.8420.2723.9826.1529.185.820.527.37PU-Net [40]29.7431.3333.8636.9440.436.840.728.94MPU [38]7.517.418.359.6211.133.960.496.11蒲甘3.383.493.443.914.642.330.284.64表2.定量比较:从完整的PU-GAN流水线(前五行)中删除每个特定组件, 基线GAN模型(第6行)与完整PU-GAN管线(最后一行)。Unifo针对不同的产品, (10−3)P2f(10−3)CD(10−3)HD(10−3)百分之零点四百分之零点六百分之零点八百分之一点零百分之一点二鉴别器7.027.318.369.7011.174.610.577.25卢尼self-attention5.154.195.714.666.134.876.825.527.326.473.993.970.510.466.226.01上-下-上3.894.164.635.145.893.020.355.15最远采样3.563.763.784.154.972.720.314.96基线GAN8.128.188.769.8911.324.790.597.31全流水3.383.493.443.914.642.330.284.64注意力单元、均匀损失和最远采样,我们将它们从网络中移除,并生成测试模型的上采样结果。表2示出了评价结果。我们的完整流水线性能最好,删除任何组件都会降低整体性能,这意味着每个组件都有贡献。特别是,重新移动GAN框架(即,移除鉴别器)导致最大的性能下降,从而显示了框架中对抗学习的有效性。此外,我们设计了一个GAN基线,通过删除uni,self-attention unit,up-down-up扩展单元和最远采样来进行比较;参见其架构的补充表2的倒数第二行中所示的定量结果和图9中所示的视觉比较示例表明,简单地应用基本GAN框架不足以解决上采样问题;我们对GAN模型的适应加上各种公式有助于实现工作GAN模型。7212图9.(c)PU-GAN与(b)基线GAN模型的视觉比较,给定(a)2,048个非均匀点的输入。图10.通过将PU-GAN应用于噪声水平为0、0.5%和1%的输入来获得上采样结果。4.6. 其他实验对不同噪声级别的点集进行上采样。图10示出了使用PU-GAN对具有增加的高斯噪声水平的点集进行上采样的结果,指示PU-GAN对噪声和稀疏性的鲁棒性。更多结果请参考补充材料。对不同大小的点集进行上采样。图11显示了对不同大小的输入点集进行上采样的结果;我们的方法即使对于只有512个点的输入也是稳定的;更多结果见补充材料。应用. 除了表面重建和渲染(见图7),点云上采样也有助于物体识别。为了证明这一点,我们在ModelNet40数据集[ 34 ]上训练了PointNet(vanilla版本)[23],以在两种情况下进行分类:在情况(i)中,我们直接训练PointNet以将稀疏训练集(512个点)作为用于对稀疏测试集中的对象进行分类的输入;在情况(ii)中,我们使用PU-GAN将稀疏训练集和测试集中的点云上采样到2,048个点,然后使用上采样的训练集训练另一个PointNet,用于对测试集中的上采样数据进行分类。结果表明,总体分类准确率从82.4%(情况(i))提高到83.8%(情况(ii)),表明PU-GAN有助于提高分类性能。图11.不同大小的上采样点集(顶行)5. 结论在本文中,我们提出了,PU-GAN,一种新的基于GAN的点云上采样网络,它结合了上采样与数据修正能力。这样的adversar- ial网络使生成器能够产生均匀分布的点集,并且该adversar-ial网络使生成器能够隐式地使偏离预期目标的输出均匀化。为了简化GAN框架,我们引入了一个用于具有错误反馈和自校正的特征扩展的up-down- up单元,以及一个用于更好的特征融合的自注意单元。此外,我们设计了一个复合损失来指导生成器和鉴别器的学习。我们通过广泛的实验证明了我们的PU-GAN的有效性,表明它在各种指标上都优于最先进的方法,并展示了实时扫描LiDAR输入的上采样性能。然而,由于PU-GAN被设计为在面片级别上完成微小的孔洞,因此它在填充点云中的大间隙或孔洞方面的能力有限;参见图8。 在面片级别进行分析和合成缺乏整体形状的全局视图。典型失效案例请参考补充材料。未来,我们将探索多尺度训练策略,鼓励网络从局部小补丁和全局结构中学习。我们还在考虑探索条件GANs,让网络同时学习一致性和语义一致性。致谢。 我们感谢匿名评论者的宝贵意见。这项工作得到了973计划(项目)的支持。No. 2015CB351706),国家自然科学基金项目。号 香港特别行政区研究资助局 ( 编 号 U1613219 ) 香 港 中 文 大 学 14203416&14201717),以及以色列科学基金会拨款2366/16和2472/7。7213引用[1] 视觉航空http://www.infra-visionair.eu/。访问时间:2019-07-24。5[2] Panos Achlioptas,Olga Diamanti,Ioannis Mitliagkas,and Leonidas J. Guibas学习3D点云的表示和生成模型。在机器学习国际会议上。(ICML),第40-49页,2018年。2[3] Marc Alexa,Johannes Behr,Daniel Cohen-Or,ShacharFleishman,David Levin,and Claudio T.席尔瓦计算和绘制点集曲面。IEEE Trans.Vis. &Comp.Graphics,9(1):3-15,2003. 一、二[4] 放 大 图 片 创 作 者 : Joshua A. Levine , Luis GustavoNonato,Gabriel Taubin,and Claudio T.席尔瓦表面重建的基准。ACM Trans. on Graphics,32(2):20:1-17,2013. 6[5] Massimiliano Corsini , Paolo Colonnoni , and RobertoScopigno.高效灵活的采样,具有三角网格的蓝噪声特性。IEEE Trans.Vis. &Comp. Graphics,18(6):914-924,2012。4[6] 戴安琪,天使X. Chang,Manolis Savva,Maciej Hal-ber , Thomas Funkhouser , and Matthias Nießner.ScanNet:室内场景的丰富注释3D重建。在IEEE计算机视觉和模式识别(CVPR)会议上,第5828-5839页,2017年。1[7] Haoqiang Fan,Hao Su,and Leonidas J. Guibas一个点集生成网络从一个单一的图像三维物体重建。 在IEEE会议 计算机视觉和模式识别(CVPR),第605-613页,2017年。5[8] Andreas Geiger , Philip Lenz , Christoph Stiller , andRaquel Urtasun.视觉与机器人技术的结合:KITTI数据集。国际机器人研究杂志,32(11):1231- 1237,2013。1、7[9] 伊恩·J·古德费洛。关于生成模型估计的可验证性准则。在国际会议上学习表示(ICLR)研讨会,2015年。2[10] Swaminathan Gurumurthy和Shubham Agrawal。利用潜在优化实现点云的高保真语义形状完成. IEEE WinterConf.计算机视觉应用(WACV),第1099-1108页,2019年。2[11] 作者:Christopher B.崔,阿尼梅什·加格,曼-莫汉·钱德拉克,还有西尔维奥·萨瓦雷斯.具有对抗约束的弱2017年3D视觉国际会议(3DV),第263-272页,2017年2[12] Martin Heusel、Hubert Ramsauer、Thomas Unterthiner、Bernhard Nessler和Sepp Hochreiter。 通过两个时间尺度更新规则训练的GAN收敛到局部纳什均衡。在国际会议上神经信息处理系统(NIPS)的进展,第6626-6637页,2017年。5[13] Binh-Son Hua、Minh-Khoi Tran和Sai-Kit Yeung。逐点卷积神经网络。 在IEEE会议 计算机视觉和模式识别(CVPR),第984- 993页,2018年。2[14] Hui Huang , Dan Li , Hao Zhang , Uri Ascher , andDaniel Cohen-Or.面向曲面重构的散乱点云合并。ACMTrans. on Graphics(SIG-GRAPH Asia),28(5):176:1-7,2009. 一、二[15] Hui Huang,Shihao Wu,Minglun Gong,Daniel Cohen-Or,Uri Ascher,and Hao Zhang.边缘感知点集重采样。ACM Trans. on Graphics,32(1):9:1-12,2013.一、二、七[16] Phillip Isola,Jun-Yan Zhu,Tinghui Zhou,and Alexei A.埃夫罗斯使用条件对抗网络进行图像到图像翻译 在IEEE会议 计算机视觉和模式识别(CVPR),第1125-1134页,2017年。2[17] Michael Kazhdan和Hugues Hoppe筛选泊松曲面重建。ACM Trans. on Graphics,32(3):29:1- 13,2013. 7[18] 迪德里克·金马和吉米·巴。Adam:随机最佳化的方法。InInt. Conf. on Learning Representations(ICLR),2015. 5[19] Chri s tianLedig , LucasTheis , FerencHusz a'r , Jo seCaballero , Andrew Cunningham , Alejandro Acosta ,Andrew Aitken,Alykhan Tejani,Johannes Totz,ZehanWang,et al.使用生成式对抗网络的照片级真实感单幅图 像 超 分 辨 率 。 在 IEEE 计 算 机 视 觉 和 模 式 识 别(CVPR)会议上,第4681-4690页,2017年。2[20] Yangyan Li,Rui Bu,Mingchao Sun,Wei Wu,XinhanDi,and Baoquan Chen. PointCNN:X变换点上的卷积。在国际会议上神经信息处理系统(NIPS),第8282[21] Yaron Lipman , Daniel Cohen-Or , David Levin , andHil- lel Tal-Ezer.用于几何重建的无参数化投影。ACMTrans. on Graphics(SIGGRAPH),26(3):22:1-5,2007. 一、二[22] 毛旭东,李庆,谢浩然,Raymond Y.K. Lau ,ZhenWang,and Stephen Paul Smolley.最小二乘生成对抗网络。在IEEE国际会议上计算机视觉(ICCV),第2794-2802页,2017年。4[23] Charles R.Qi , Hao Su , Kaichun Mo , and LeonidasJ.Guibas PointNet:用于3D分类和分割的点集深度学习。在IEEE计算机视觉和模式识别(CVPR)会议上,第652-660页,2017年。二、八[24] Charles R.Qi,Li Yi,Hao Su,and Leonidas J.Guibas 点-Net++:度量空间中点集上的深度层次特征学习。在神经信息处理系统(NIPS)国际会议上,第50992[25] 亚历克·雷德福卢克·梅斯和苏米特·钦塔拉使用深度卷积生 成 对 抗 网 络 进 行 无 监 督 表 示 学 习 InInt. Conf. onLearning Representations(ICLR),2016. 2[26] 沈亦儒、陈锋、杨耀青、田栋。基于核相关和图池的点云局 部结 构挖掘 。在IEEE计算 机视 觉和模 式识 别(CVPR)会议上,第4548-4557页,2018年。2[27] 爱德华·史密斯和大卫·梅格。用于3D对象生成和重建的改进的对抗系统。在第一届机器人学习年会,第872[28] 作者:Samuel P. Lichtenberg,and Jianxiong Xiao. SUNRGB-D:RGB-D场景理解基准套件。 在IEEE会议 计算机视觉和模式识别(CVPR),第567-576页,2015年。17214[29] Hang Su , Varun Jampani , Deqing Sun , SubhransuMaji,Evangelos Kalogerakis,Ming-Hsuan Yang,andJan Kautz. SPLATNet:用于点云处理的稀疏网格网络。在IEEE计算机视觉和模式识别会议(CVPR)上,第2530-2539页,2018年。2[30] Weiyue Wang , Qiangui Huang , Suya You , ChaoYang,and Ulrich Neumann.使用3D生成式对抗网络和递归卷积网络进行形状修复。在IEEE国际会议上计算机视觉(ICCV),第2298- 2306页,2017年。2[31] Yue Wang,Yongbin Sun,Ziwei Liu,Sanjay E Sarma,Michael M Bronstein,and Justin M Solomon.用于点云学习的动态图CNN。ACM Trans. on Graphics,2019。出现2[32] Jiajun Wu , Chengkai Zhang , Tianfan Xue , BillFreeman,and Josh Tenenbaum.通过3D生成对抗建模学习对 象形 状的 概率 潜在 空间在 神经 信息 处理 系统(NIPS)进展国际会议上,第82-90页,2016年。2[33] Shihao Wu , Hui Huang , Minglun Gong , MatthiasZwicker,and Daniel Cohen-Or.深点巩固。ACM Trans.on Graphics(SIGGRAPH Asia),34(6):176:1-13,2015. 一、二[34] 吴 志 荣 , 宋 舒 然 , Aditya Khosla , Fisher Yu , Lin-guang Zhang , Xiaoou Tang , and Jianxiong Xiao. 3DShapeNet:体积形状的深度表示。 在IEEE计算机视觉和模式识别(CVPR)上,第1912-1920页,2015年。8[35] 徐一凡、樊天奇、徐明业、龙增、乔玉。SpiderCNN:使用参数化卷积滤波器对点集进行深度学习 在欧洲会议中 计算机视觉(ECCV),第87-102页,2018年。2[36] Bo Yang,Hongkai Wen,Sen Wang,Ronald Clark,Andrew Markham,and Niki Trigoni.利用对抗学习从单个深度视图 在IEEE国际计算机视觉会议(ICCV),第679-688页,2017年。2[37] 杨耀青、陈锋、沈一如、冬天。Fold-ingNet:通过深度网格变形的点云自动编码器在IEEE计算机视觉和模式识别(CVPR)上,第206-215页,2018年。4[38] Wang Yif
下载后可阅读完整内容,剩余1页未读,立即下载
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)