没有合适的资源?快使用搜索试试~ 我知道了~
聚合点云上下文特征的自适应模型(AFA)及其在点云分割和分类中的优势
5565PointWeb:增强点云处理赵恒双1蒋丽1傅志荣1 贾佳雅1,21香港中文大学2腾讯优图实验室{hszhao,lijiang,cwfu,leojia}@ cse.cuhk.edu.hk摘要本文提出了一种从点云局部邻域中提取上下文特征与以前的工作不同,我们在局部邻域中密集地连接每个提出了一种新的模型,即自适应特征调整(AFA)模型,对于每个局部区域,将携带点对之间的逐元素影响的影响图应用于特征差异图。然后,根据自适应学习的影响指示符,由相同区域调整后的特征被很好地编码为区域信息,从而有利于点云识别任务,如点云分割和分类。实验结果表明,我们的模型在语义分割和形状分类数据集上都优于最先进的模型。1. 介绍我们已经见证了图像识别任务的巨大进步,例如图像分类[11,22,26,7,9,8]和语义分割[14,3,35],这主要是由具有大规模模型容量的深度学习技术的发展所推动的。除了2D图像识别之外,对于自动驾驶、增强现实、机器人等应用的3D视觉[18,36,6,34,4]的兴趣越来越大。大规模高分辨率3D数据集的出现[1,5]也带来了使用深度神经网络推理3D数据的环境。直接将2D图像深度学习方法扩展到3D识别任务并不总是可行的,因为3D场景通常由一组无序且分散在3D中的点来描述。简单地将卷积等2D要素聚合操作应用于不规则点云也是不合理的,因为这些操作通常在*同等缴款。(一)(b)第(1)款(c)第(1)款图1. 3D分割图示。(a)PointNet++ [20]. (b)DGCNN [32]. (c)我们的方法与自适应功能调整(AFA)模块。蓝点表示整合对信息的特征红点是整合区域信息的要素。与从中心点到其他点通过级联聚合对特征相比,我们的方法自适应地学习每个点对之间的影响指标,并聚合整个区域的特征。规则网格方法[16,23,21]通过体素化点云和应用3DCNN进行特征学习来解决这个问题,这是一个自然的想法。这些方法在体素化过程中运行速度慢,并且可能会丢失信息。或者,PointNet [18]架构直接使用共享的多层感知(MLP)处理原始点云。以下PointNet++[20]通过引入分层结构来提取全局和局部特征,进一步提高了性能。与将像素的特征与其局部邻域集成的2D卷积不同,PointNet++中的局部区域的特征聚合是通过如图所示的最大池化来实现的第1(a)段。对于动态图CNN(DGCNN)[32],它通过将中心点的特征与共享MLP最大池共享MLP最大池共享MLP最大池5566中心点和它的k个最近的邻居,然后是MLP和最大池化(图(b)款。这里,仅针对中心点考虑对关系,并且区域信息的合并仍然是有限的,因为用于区域聚合的实际操作也通过简单的最大池化来实现。PointCNN[13]通过将点排序为潜在的规范顺序并在点上应用卷积来解决这个问题点是否排列和加权的X-变换[13]是在一个规范的秩序或尚未需要进一步的调查。与上述方法不同的是,我们通过连接和探索区域中的所有点对来耗尽局部为此,我们制定了一个新的模块,即自适应特征调整(AFA),连接所有对点的局部区域,并最终形成一个本地完全链接的网络。然后,我们从点对差学习点特征的调整,如图所示。第1段(c)分段。该策略丰富了局部区域的点特征,形成聚合特征更好地描述局部区域,便于三维识别。我们的网络从点对差异中学习影响指标,以确定特征调整,从而允许适当的适应以获得更好的通用性。图 2 示 出 了 特 征 调 整 的 过 程 。 此 外 , 我 们 提 出 了PointWeb框架与我们的新的AFA模块的三维场景识别,如图所示。4、在点云场景理解任务上取得了较好的效果,包括点云语义分割和形状分类。排名最高的实验结果是在三个最具竞争力的数据集,即。,Stanford Large-Scale 3D Indoor Space(S3 DIS)[1]用于语义分割,ScanNet [5]用于语义体素标记,ModelNet40 [33]用于形状分类。我们相信,这种有效的自适应特征调整模块可以有益于其他点云理解任务。我们给出了所有的实现细节,并公开了我们的代码和训练模型。我们的主要贡献是两方面的。• 我们通过自适应特征调整(AFA)。该模块极大地增强了所学习的逐点特征的表示能力。• 我们提出了PointWeb框架的关键模块AFA。它在各种竞争点云数据集上实现了最佳性能,从而证明了其有效性和普遍性。2. 相关工作3D数据表示真实扫描数据具有3D点坐标的集合。为了使数据适用于-1https://github.com/hszhao/PointWeb在一个实施例中,一种直接的方法是将其体素化在3D网格结构中[16,23]。然而,这种表示显然是低效的,因为大多数体素通常是不被发现的。后来,OctNet [21]探索了体素数据的稀疏性并缓解了这个问题。然而,当涉及到更深的神经网络时,内存占用率仍然很高此外,由于体素是空间的离散表示,因此该方法仍然需要高分辨率网格和大的存储器消耗作为权衡以保持一定水平的表示质量。另一种常见的3D表示是在多视图[19,24,25]中,其中点数据被投影到3D空间中的各种通过这种方式,可以使用2D图像上的常规卷积来处理点数据然而,这种方法忽略了3D点的内在几何关系,并且图像平面的选择可能会严重影响结果。不处理3D数据中因投影而被遮挡的部分。点云深度学习PointNet [18]首先讨论了点集的不规则格式和排列不变性,并提出了一种直接消耗点云的网络。PointNet++ [20]通过进一步考虑全局信息以及最远采样层和分组层的局部细节来扩展PointNet。虽然在Point- Net++中利用了本地上下文,但仅使用最大池化可能无法很好地聚合本地区域中的信息。因此,DGCNN [32]通过将每个中心点与其k个最近的邻居联系起来来聚集局部上下文信息。然后由MLP独立地编码配对特征。局部区域上的聚合操作仍然是简单的最大池化。最近的方法通过将卷积算子扩展到规则网格结构来处理无序点,从而提高了上下文集成。PCCN [31]具有参数连续卷积运算,其定义连续支持域上的核函数。PointCNN [13]通过排列和加权利用了点的规范顺序用X-Conv算子输入点和特征,然后用传统的Conv算子处理重新组织的点,进化此外,另一方面,超点图(SPG)[12]专注于处理大型点云。该方法将点自适应地划分为几何上均匀的元素,以构建一个超点图,然后将该超点图馈送到一个图神经网络,用于产生语义标签。我们的工作也集中在地方特色的集合上。与以前的方法,适应卷积点云,我们把我们的注意力放在每个局部邻域区域的点之间的相互作用。通过提取所有点对之间的上下文信息,我们的网络模块细化了特征,使其对局部邻域区域更具描述性。5567特征空间本地补丁4F⋯⋯2FFF5F$$2$F和(-F5M(/F$M⨀ ⨁…FM⋯2019 - 05 - 2201:01:02(((i)*i++ :×⋯1)A=0,A=0,B=0,C=0,C=0,D= 0,C= 0,D = 0,D = 0,C =0,D=0,D = 0,C = 0,D = 0,D = 0,调整后的特征图(10 - 12-2015张国荣我我我本地补丁4XYZ空间图2.我们的自适应特征调整(AFA)模块。3. 我们的方法探索局部区域内点之间的关系是本文的重点。特别地,在我们使用神经网络提取逐点特征(或简称点特征)之后,进一步聚合这些局部特征有助于提高用于语义分割和分类任务的点云识别质量。给定一个3D点云,PointNet++ [20]使用远点采样来选择点作为质心,然后其中,F′是增强的Fi,并且从F通过表示为Fmod的特征调制器。下一个挑战是制定特征调制器,以有效地交换和进一步聚合信息,F.直觉上,局部区域的不同特征对每个Fi的影响是不同的。我们的特征调制器通过自适应地学习F中的每个特征对每个Fi的影响量来解决这个问题。表达为ΣM应用kNN来找到每个周围的相邻点,质心,它很好地定义了点中的局部面片fmod(Fi,F)=j=1 fimp(Fi,Fj)·frel(Fi,Fj),(2)cloud.对于M个点的局部片(或局部邻域)R,我们用F表示R中的点特征集,使得F={F1,F2,.,F M},其中Fi∈RC. C表示每个点特征中的通道数。这里,最终目标是获得区域R中的代表性特征F_out∈R_C_out , 其 中 C_out 是 输 出 特 征 中 的 通 道PointNet ++使用MLP和最大池化获得代表性特征。但是,该程序不涉及区域信息通报-局部邻域内的点之间的交换。在我们的方法中,我们密集地连接R中的点作为一个局部网络的,并制定一个自适应特征调整(AFA)模块,以了解每个点对其他点的影响通过这种方法,我们将邻域上下文引入到点特征中,增强了特征描述局部邻域的能力。图2给出了AFA模块的概述我们称我们的整体网络PointWeb,因为我们的方法有效地提取本地邻居的上下文,通过网络的密集连接点。3.1. 自适应特征调整(AFA)模块给定区域R及其特征集F ={F1,F2,.,F M},我们首先制定自适应特征调整(AFA)模块,用于通过学习局部邻域中的上下文信息来增强F中的点特征,F′=Fi+<$Fi且<$Fi=fmod(Fi,F),<$Fi∈F,(1)其中,f imp是为了计算F j对F i的影响量而学习的函数,而f rel表示F j如何与F i相关。值得注意的是,我们还将Fi的自影响包括在调制器中。3.1.1Impact Functionfimp多层感知(MLP)网络在[18,20]中提出,它近似点集上的一般函数。 我们使用MLP来计算影响函数fimp,如图所示。3.它被制定为wij=fimp ( Fi , Fj ) =MLP ( g ( Fi ,Fj)),其中g是组合特征Fi和Fj的函数,并且wij是Fj对Fi的最终影响指标。模型g的一个简单方法是将两个特征连接起来。该解决方案具有明显的局限性,g完全包含Fi和Fj,其中即使Fj变化,也有一半的特征通道保持不变这使得Fi在计算影响时占主导地位另一种选择是将特征和(Fi+Fj)取为g。我们注意到这种策略也是有问题的,因为F j对F i的影响与F i对F j的影响相同。 这种对称碰撞产生了一种不希望有的性质,这将在后面的实验中得到证明。考虑到这些因素,我们因此对g(Fi,Fj)=Fi−Fj建模,使影响计算为两个特征向量之间的差。我们稍后将在表3中显示5568diffdiff′J吉吉j影响函数3.1.3元素影响图除了两个关键函数f imp和f rel之外,应注意,影响因子wij=fimp(Fi,Fj)(j=1,.,M)以逐元素方式在特征差异图上操作。每个因子的长度等于特征中的通道数。考虑到图3.Fj对Fi的影响函数fimp的图示。使用三种不同形式的g.注意这里i=j是一种特殊情况,我们将g(Fi,Fi)设为Fi。因此,Fi对自身的影响由其自身的特征Fi来估计。3.1.2关系函数frel另一方面,关系函数f rel旨在决定影响指标wij如何作用于Fi。一种简单的方法是直接将wij与Fj相乘,f rel(Fi,Fj)= Fj.(四)两个点特征可以在整个通道中不同,代替计算逐点影响因子,针对局部区域中的每个特征获得覆盖整个区域和所有通道的逐元素影响图Fi的影响图表示为:Wi=[Wi1,Wi2,., wiM]。(九)将通道数表示为C,将影响图的大小表示为C×M。特征调制器然后以矩阵形式表示为fmod(Fi,F)=(Wi<$F(i))e,(10)然后,在Eq中的整体f (2)成为其中,e表示逐元素乘法,e是全-modΣMfmod(Fi,F)=f imp(F i,F j)·F j。(五)一个向量,并且F(i) 是大小C×M。具体地说,j=1虽然点云识别任务的结果质量F(i)diff =[F1−Fi,., 如果我... FM−Fi]。 (十一)使用该朴素关系函数已经将一致性提高到基线,可以使用针对Frel的不同向量形式来进一步提升我们的框架的性能。在数学上,我们将关系函数建模为.3.2. 具有局部特征调制的PointWeb我们的框架是建立在PointNet++架构,这是一个分层网络组成的几个集合抽象级别。在AB中的每个局部区域f(F,F)=Fi−Fj, 如果iJ.(六)牵引模块,全局和局部特征都在-雷伊杰Fiifi=j用于点集识别。然而,在点-请参考第4节中的消融研究,以比较使用不同形式的关系函数的性能现在,对于局部区域R中的每个特征Fi,特征调整的总体输出为Net++中,在每个局部区域中聚合信息的唯一操作是最大池化,而我们的PointWeb框架在每个局部区域中的点特征之间构建了一个完全链接的点网络,然后通过学习来整合区域的信息,以确定它们之间的相互影响。ΣMF=α(i)·Fi+α(i)·(Fj−Fi),(7)PointWeb的语义段的整体框架图中示出了该问题。4.改善的主要因素我我哪里α(i)=.−fJj= l,j iimp(Fi,Fj)ifi/=j.(八)性能是自适应特征调整(AFA)模块,该模块在图中突出显示。详细地说,每个分组层之后是AFA模块在3.1节中介绍请参考图2j1+fimp(Fi,Fi)ifi=j换句话说,该公式的工作方式类似于局部区域R中的力场(见图1)。2(c)),其中R中的每个其他特征都对Fi施加力(在特征空间中),试图将Fi推向或远离自身。力的强度和方向由系数α(i)决定,其根据所述差被自适应地学习,′在两个特征向量之间。 因此,输出Fiincor.导入整个区域的上下文信息,联5569更好地描述了该地区的特点。用于说明局部区域的AFA模块。具体地,在同一局部区域中的每两个特征被链接以形成网(图1)。第2段(b)分段)。然后,通过考虑它们之间的相互作用来更新特征(图11)。第2段(c)分段)。该框架使相同的特征分组在基于区域特征指定的不同局部区域中。在不改变特征的数量和大小的情况下,我们的AFA模块可以被看作是一个特征转换模块,它交换和聚合上下文信息5570设置抽象级别N×(3+*)特征传播级别设置抽象级别N ou$×3N ou$×K×(3+*+n)N ou$×K×(3+*+n)N ou$×K×* ou$N ou$×* ou$输入N+n×(3+*+n )最远点采样k-NNAFA模块共享MLP最大池化输出Nou$ ×(3+*ou$)交叉熵损失N× *l/00N12GT图4.用于点云语义分割的PointWeb架构。自适应特征调整(AFA)模块跟随kNN分组层,用于在每个局部区域中构造全连接网络并在点之间传递信息。在每个局部区域中的空间和信道中。调整后的特征,然后给予MLP和最大池化,以进一步的信息集成在不同的通道。4. 实验评价我们提出的PointWeb框架是有效的点云场景理解。为了证明该算法的有效性,我们对点云语义分割和分类任务进行了实验。采用了两个大规模3D点云分割数据集,包括斯坦福大规模3D室内空间(S3DIS)[1]和ScanNet另一个形状分类数据集Model- Net [33]用于分类评估。4.1. 实现细节我们基于PyTorch [17]平台进行实验。在训练过程中,我们使用SGD求解器,基本学习率为0.05,小批量 大 小 为 16 。 动 量 和 重 量 衰 减 分 别 设 置 为 0.9 和0.0001。对于S3DIS数据集,我们训练100个epoch,每25 个 epoch 将 学 习 率 衰 减 0.1 。 对 于 ScanNet 和ModelNet40数据集,我们训练了200个epoch,每50个epoch将学习率衰减0.1。4.2. S3DIS语义分割S3DIS [1]数据集包含六个区域的3D扫描,包括271个房间。扫描中的每个点都使用13中的一个语义标签进行注释类别(椅子、桌子、天花板、地板、杂物等)。为了对训练数据进行预处理,我们遵循[20],其中将点均匀采样到面积大小为1m×1m的块中。每个点都用一个9D矢量(XY Z、RGB和房间中的标准化位置)表示。在训练过程中,我们从每个块中随机抽取4,096个点。在测试过程中,我们采用所有的点进行评估。在[20,28,12,13]之后,我们报告了两种设置的结果,即在区域5上测试(房间不存在于其他折叠中)和6重交叉验证(计算来自合并的不同折叠的结果的度量)。对于评估指标,我们使用类交叉联合平均值(mIoU)、类准确度平均值(mAcc)和整体点准确度(OA)。性能比较表1和表2显示了在上述两种设置下不同方法的定量结果。在这个竞争激烈的数据集中,我们的PointWeb在5区评估的mIoU和OA方面实现了最高性能PointWeb的mIoU在Area 5上达到60.28%,比当前最先进的PCCN高2.01%。同时,PointWeb在6重交叉评估上的mIoU达到66.73%,比之前的最佳方法高出1.34个点。图中给出了视觉演示。5. PointWeb很好地捕捉了点云中的某些详细结构。如图所示,不显眼的物体部分,如椅子和桌子的腿,可以区分和识别的核心,5571方法mIoU mAcc OA方法OAMACCMiou天花板地板壁束柱窗口门表椅子 沙发书柜板杂波PointNet [18]-48.98 41.0988.80 97.33 69.80 0.053.9246.2610.76 58.93 52.61 5.8540.2826.38 33.22[28]第二十八话-57.35 48.9290.06 96.05 69.86 0.0018.3738.3523.12 70.40 75.89 40.8858.4212.96 41.60[13]第十三话85.91 63.86 57.2692.31 98.24 79.41 0.0017.6022.7762.09 74.39 80.59 31.6766.6762.05 56.74SPGraph [12]86.38 66.50 58.0489.35 96.87 78.12 0.0042.8148.9361.58 84.66 75.41 69.8452.602.1052.22PCCN [31]-67.01 58.2792.26 96.20 75.89 0.275.9869.4963.45 66.87 65.63 47.2868.9159.10 46.22PointWeb86.97 66.64 60.2891.95 98.48 79.39 0.0021.1159.7234.81 76.33 88.27 46.8969.3064.91 52.46表1.在Area 5上评估的S3DIS数据集上的语义分割结果方法OAMACCMiou天花板地板壁束柱窗口门表椅子 沙发书柜板杂波PointNet [18]78.566.247.688.088.769.342.423.147.551.654.142.09.638.229.435.2RSNet [10]-66.45 56.4792.48 92.83 78.56 32.7534.3751.6268.11 60.13 59.72 50.2216.4244.85 52.03SPGraph [12]85.573.062.189.995.176.462.847.155.368.473.569.263.245.98.752.9[13]第十三话88.14 75.61 65.3994.7897.3 75.82 63.2551.7158.3857.18 71.63 69.12 39.0861.1552.19 58.59PointWeb87.31 76.19 66.7393.54 94.21 80.84 52.4441.3364.8968.13 71.35 67.05 50.3462.6862.20 58.49表2.S3DIS数据集上的语义分割结果,具有6倍交叉验证。方法mIoU mAcc OA基线55.88 62.30 85.29无链接55.12 61.55 85.89合计减60.28 66.64 86.97连接表3.S3DIS数据集区域5上的消融结果江恩58.2365.1586.10PointWeb60.2866.6486.97使用Softmax59.1165.7986.44关于Channel Share58.2764.9986.22表4.与S3DIS数据集Area 5上的GANN [29]相比正确地。最后一行显示了两个失败案例。在左边的例子中,墙上的部分杂物被错误地分类为木板。而在第二个中,墙壁上的杂乱部分在我们的算法中被识别,但在地面真实中没有。左边的部分杂物与书柜混在一起。消融研究为了更好地理解我们的设计逻辑的影响,我们采用Area5对S3DIS数据集进行消融实验进行评估。首先,我们研究了f imp中的组合函数g在每个局部群中的四种不同风格,即,每对点之间不进行组合,通过特征求和、特征相减和特征连接进行组合。定量结果见表3。我们选择的局部特征的减法操作调整是更区分性和代表性比其他替代方案。只对单个特征进行学习调整,而不与其他特征进行交互,无法获得局部区域的上下文信息.成对特征的求和运算导致局部区域中特征的辨别能力的降低。因此,它损害了识别能力。成对特征的连接使得部分特征表示几乎相同,这不如我们选择减法。通过我们的减法运算,每个特征对Fi和Fj之间的组合是唯一的,从而增强了分类能力。此外,我们还与为图问题设计的图注意力网络(GANN)[29]进行了比较。GANN通过连接建立连接。注意力系数采用Softmax运算,而AFA则不采用。因此,AFA的影响可以是积极的或消极的,作为推动或拉动。此外,我们的影响指标因渠道而异,如等式所示。(9),比GANN中跨通道共享权重的比例系数具有更高的灵活性。表4列出了比较结果,其中PointWeb得分最高。最后,对于减法运算,我们研究了直接对特征本身进行操作而不是交替地对特征差异图进行操作的自适应学习影响指标当直接对特征施加影响因子(frel(Fi ,Fj ) =Fj ) 时 , 测 试 结 果 为59.79%/66.63%/86.51%(mIoU/mAcc/OA )。 它 不如在dif上操作的冲击功能好参考映射(frel(Fi,Fj)=Fi−Fj),其产生最高性能,为60.28/66.64/86.97(%)。特征可视化为了充分理解所提出的AFA模块,我们对具有或不具有调整模块处理的输入和输出特征使用了S3DIS上的13个类别的功能我们从每个类别的整个区域中随机抽取100个点,并绘制特征分布图,如图所示。7.从左到右分别是输入要素、基线网生成的输出要素5572输入真实数据我们的PointWeb输入真实数据我们的PointWeb天花板地板墙梁柱窗门桌椅沙发书柜板杂波图5.斯坦福3D室内空间数据集上的语义分割结果的可视化图6. ScanNet数据集上的语义体素标记精度。比较的方法是3DCNN [2],PointNet [18],TCDP [27],PointNet++ [20],PointCNN [13]和我们的PointWeb。工作没有AFA和输出功能,我们的PointWeb架构与AFA模块,以加强信息交换和连接配对点内的局部区域。与基线网络相比,在基线网络中,仅使用MLP独立处理局部区域特征,我们的密集连接特征自适应可以促进网络学习,以生成更紧凑、更有代表性和更有区别的特征表示。从而更容易和准确地识别不同类别的点。定性可视化表明,AFA模块明显提高了点特征的区分能力。4.3. ScanNet语义体素标注ScanNet [5]数据集包含1,513个扫描和重建的室内场景,分为1201/312用于训练和测试。对于语义体素标记任务,20个类别用于评估,1个类别用于自由空间。我们遵循先前的数据处理流水线[5,20],其中点从场景中均匀采样并被划分分成1.5m×1.5m的块。在训练过程中,选择了8,192个点样本,其中不少于2%的vox-EL被占用,并且至少70%的表面体素具有有效的注释。点是动态采样的。测试集的所有点都用于评估,测试过程中每对相邻块之间采用较小的0.5采样步长在评价中,采用整体语义体素标记精度为了与以前的方法进行公平的比较,我们不使用RGB颜色5573(a)输入(b)基线(c)PointWeb图7. T-SNE可视化S3 DIS数据集上的13类特征:(a)输入功能,(b)无AFA模块的基线输出功能,(c)包含AFA模块的PointWeb输出功能。表5.ModelNet40数据集上的形状分类结果(a)地面实况(b)我们的PointWeb图8.ScanNet结果可视化。用于培训和测试的信息。图6示出了语义体素标记结果。我们的方法在这个数据集上达到了第一位目视结果如图所示8,其中PointWeb很好地分类了周围的物体和各种房间的东西。4.4. ModelNet40分类ModelNet40数据集包含来自40个对象类别的12,311个CAD模型。它们是分开的,因此9,843个模型用于训练,2,468个用于测试。在[20]之后,我们统一采样来自每个CAD模型的点以及来自对象网格的计算法向量。对于分类框架,我们将特征传播层替换为全局最大池和全连接(FC)层。每个形状模型中的点被随机打乱以增加训练集。在最后两个FC层中添加两个丢弃率为0.5的丢弃层,以减少过拟合。表5显示了不同方法评价的每个类别的总体准确度和平均准确度的结果我们的方法是该数据集上排名最高的解决方案之一。它显示了一个原则性的方法,以提高基于点的战略的点云理解的适用性。5. 总结发言我 们 提 出 了 自 适 应 特 征 调 整 ( AFA ) 模 块 和PointWeb架构的三维点云处理和识别。它在局部区域内设置点对的密集连接,从而使每个点能够从所有其他点收集特征。与不知道局部上下文和与其他组件的信息交换的传统方法相比,我们的框架能够更好地学习用于点云处理的特征表示。在三个竞争数据集上进行的大量实验证明了我们方法的有效性和通用性。我们相信,所提出的模块可以,在原则上,推进在社会上的三维场景理解的研究。方法输入MACCOA[33]第三十三话体素77.384.7[第16话]体素83.085.9[19]第十九话体素86.089.2MVCNN [24]图像-90.1PointNet [18]点86.289.2[20]第二十话点-91.9SpecGCN [30]点-92.1[32]第三十二话点90.292.2[13]第十三话点88.192.2PointWeb点89.492.35574引用[1] 放大图片创作者:Iro Armeni,Ozan Sener,Amir R.Zamir,Helen Jiang,Ioannis Brilakis,Martin Fischer,and Silvio Savarese.大规模室内空间的3D在CVPR,2016年。[2] 琼·布鲁纳、沃伊切赫·扎伦巴、阿瑟·斯拉姆和扬·勒昆。图上的谱网络和局部连通网络。见ICLR,2014年。[3] Liang-ChiehChen , GeorgePapandreou , IasonasKokkinos,Kevin Murphy,and Alan L Yuille.Deeplab:使用深度卷积网络、atrous卷积和全连接crfs进行语义TPAMI,2018年。[4] Christopher B Choy , Danfei Xu , JunYoung Gwak ,Kevin Chen,and Silvio Savarese. 3d-r2 n2:用于单视图和多视图3D对象重建的统一方法。在ECCV,2016年。[5] 戴安琪,天使X. Chang,Manolis Savva,Maciej Hal-ber , Thomas Funkhouser , and Matthias Nießner.ScanNet:室内场景的丰富注释3D重建。在CVPR,2017年。[6] Huan Fu , Mingming Gong , Chaohui Wang , KayhanBat- manghelich,and Dacheng Tao.用于单目深度估计的深度有序回归在CVPR,2018年。[7] Kaiming He,Xiangyu Zhang,Shaoying Ren,and JianSun.用于图像识别的深度残差学习。在CVPR,2016年。[8] 杰虎,李申,孙刚。挤压-激发网络。在CVPR,2018年。[9] Gao Huang , Zhuang Liu , Kilian Q Weinberger , andLaurens van der Maaten. 密 集 连 接 的 卷 积 网 络 。 在CVPR,2017年。[10] Qiangui Huang,Weiyue Wang,and Ulrich Neumann.用于点云三维分割的递归切片网络。在CVPR,2018年。[11] Alex Krizhevsky、Ilya Sutskever和Geoffrey E.辛顿使用深度卷积神经网络的图像网分类。NIPS,2012年。[12] Loic Landrieu和Martin Simonovsky。基于超点图的大规模点云语义分割。在CVPR,2018年。[13] Yangyan Li,Rui Bu,Mingchao Sun,Wei Wu,XinhanDi,and Baoquan Chen. Pointcnn:X转换点上的卷积。在NIPS,2018年。[14] 乔纳森·朗埃文·谢尔哈默和特雷弗·达雷尔用于语义分段的全卷积网络。CVPR,2015。[15] Laurens van der Maaten和Geoffrey Hinton使用t-sne可视化数据。JMLR,2008年。[16] Daniel Maturana和Sebastian Scherer。Voxnet:用于实时对象识别的3D卷积神经网络InIROS,2015.[17] Adam Paszke、Sam Gross、Soumith Chintala、GregoryChanan、Edward Yang、Zachary DeVito、Zeming Lin、Alban Desmaison、Luca Antiga和Adam Lerer。pytorch中的自动微分。在NIPS研讨会,2017年。[18] Charles Ruzhongtai Qi , Hao Su , Kaichun Mo , andLeonidas J. Guibas Pointnet:对点集进行深度学习,用于3D分类和分割。在CVPR,2017年。[19] Charles Ruizhongtai Qi , Hao Su , Matthias Nießner ,Angela Dai,Mengyuan Yan,and Leonidas Guibas.用于三维数据对象分类的体积和多视图cnn。在CVPR,2016年。[20] Charles Ruzhongtai Qi,Li Yi,Hao Su,and Leonidas J.Guibas Pointnet++:度量空间中点集的深度层次特征学习。在NIPS,2017年。[21] Gernot Riegler、Ali Osman Ulusoy和Andreas Geiger 。Octnet:以高分辨率学习深度3D表示在CVPR,2017年。[22] Karen Simonyan和Andrew Zisserman用于大规模图像识别的非常深的卷积网络2015年,国际会议。[23] Shuran Song、Fisher Yu、Andy Zeng、Angel X Chang、Mano-lis Savva和Thomas Funkhouser。语义场景完成从一个单一的深度图像。在CVPR,2017年。[24] Hang Su,Subhransu Maji,Evangelos Kalogerakis,andErik G.学习米勒。用于三维形状识别的多视图卷积神经网络。在ICCV,2015年。[25] Hao Su,Fan Wang,Eric Yi,and Leonidas J. Guibas用于对象的新视图的3D辅助特征合成ICCV,2015年。[26] Christian Szegedy , Wei Liu , Yangqing Jia , PierreSermanet,Scott E.Reed,Dragomir Anguelov,DumitruErhan,Vincent Vanhoucke,and Andrew Rabinovich.更深的回旋。CVPR,2015。[27] Maxim Tatarchenko,Jaesik Park,Vladlen Koltun,andQian-Yi Zhou.用于3D中密集预测的切线卷积。CVPR,2018年。[28] 放大图片作者:Lyne P. Choy、Iro Armeni、JunY- oungGwak和Silvio Savarese。Segcloud:3D点云的语义分割。在3DV,2017年。[29] PetarVelicˇko vic´ , GuillemCucurull , ArantxaCasanova ,Adriana Romero,Pietro Lio,and Yoshua Bengio.图at-tension网络。在ICLR,2018年。[30] Chu Wang,Babak Samari,and Kaleem Siddiqi.用于点集特征学习的局部谱图卷积。在ECCV,2018。[31] Shenlong Wang , Simon Suo , Wei-Chiu Ma , AndreiPokrovsky,and Raquel Urtasun.深度参数连续卷积神经网络。在CVPR,2018年。[32] Wang Yue,Yongbin Sun,Ziwei Liu,Sanjay E.作者声明:Michael M. Bronstein和Justin M.所罗门点云学习的动态图cnn。arXiv:1801.07829,2018。[33] 吴 志 荣 , 宋 舒 然 , Aditya Khosla , Fisher Yu , Lin-guang Zhang , Xiaoou Tang , and Jianxiong Xiao. 3dshapenets:体积形状的深度表示。CVPR,2015。[34] 李旭和贾佳雅。立体匹配:一种离群置信度方法。ECCV,2008年。[35] Hengshuang Zhao , Jianping Shi , Xiaojuan Qi ,Xiaogang Wang,and Jiaya Jia.金字塔场景解析网络。在CVPR,2017年。[36] 尹周和昂塞尔·图泽尔。Voxelnet:基于点云的3D对象检测的端到端学习。在CVPR,2018年。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Android圆角进度条控件的设计与应用
- mui框架实现带侧边栏的响应式布局
- Android仿知乎横线直线进度条实现教程
- SSM选课系统实现:Spring+SpringMVC+MyBatis源码剖析
- 使用JavaScript开发的流星待办事项应用
- Google Code Jam 2015竞赛回顾与Java编程实践
- Angular 2与NW.js集成:通过Webpack和Gulp构建环境详解
- OneDayTripPlanner:数字化城市旅游活动规划助手
- TinySTM 轻量级原子操作库的详细介绍与安装指南
- 模拟PHP序列化:JavaScript实现序列化与反序列化技术
- ***进销存系统全面功能介绍与开发指南
- 掌握Clojure命名空间的正确重新加载技巧
- 免费获取VMD模态分解Matlab源代码与案例数据
- BuglyEasyToUnity最新更新优化:简化Unity开发者接入流程
- Android学生俱乐部项目任务2解析与实践
- 掌握Elixir语言构建高效分布式网络爬虫
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功