没有合适的资源?快使用搜索试试~ 我知道了~
1711Point-GNN:用于点云中卡内基梅隆大学卡内基梅隆大学Pittsburgh,PA{weijings,rajkumar}@ cmu.edu摘要在本文中,我们提出了一个图形神经网络从激光雷达点云检测对象。为此,我们在一个固定的半径附近的邻居图有效地编码的点云。我们设计了一个名为Point-GNN的图神经网络来预测图中每个顶点所属的对象的类别和在Point-GNN中,我们提出了一种自动配准机制来减少平移方差,并且还设计了一种框合并和评分操作来准确地组合来自多个顶点的检测。我们在KITTI基准测试上的实验表明,该方法单独使用点云实现了领先的精度,甚至可以超越基于融合的算法。我们的研究结果表明,使用图神经网络作为一种新的方法 , 三 维 物 体 检 测 的 潜 力 。 该 代 码 可 在https://github.com/WeijingShi/Point-GNN上获得。1. 介绍理解3D环境在机器人感知中至关重要由空间中的一组点组成的点云是广泛用于诸如LiDAR的3D传感器的格式从点云中准确检测物体在自动驾驶等应用中至关重要。从图像中检测对象的卷积神经网络依赖于卷积运算。虽然卷积操作是有效的,但它需要规则网格作为输入。与图像不同,点云通常是稀疏的,并且在规则网格上不是均匀间隔的将点云放置在规则栅格上会在栅格单元中生成奇数个点。在这样的网格上应用相同的卷积运算会导致拥挤单元中的潜在信息丢失或空单元中的计算浪费。最近使用神经网络的突破[3] [22]允许一组无序的点作为输入。研究利用这种类型的神经网络来提取点云特征,而无需将点云映射到网格。但是,他们通常需要对点进行采样和图1.三种点云表示方法及其常用处理方法。迭代地创建点集表示。在大型点云上重复分组和采样可能是计算成本高的。最近的3D检测方法[10][21][16]通常采用混合方法,在不同阶段使用网格和集合表示虽然他们表现出一些有希望的结果,这种混合策略可能会遭受这两种表示的缺点。在这项工作中,我们建议使用图作为点云的紧凑表示,并设计一个称为Point-GNN的图神经网络来检测对象。我们通过使用点作为图顶点来在图中对点云进行本地图的边缘连接位于固定半径内的邻域点,这允许特征信息在邻域之间流动。这种图形表示直接适应点云的结构,而不需要使其规则。图神经网络重用每一层中的图边,并且避免重复分组和采样点。研究[15] [9] [2] [17]已经研究了使用图神经网络进行点云的分类和语义分割。然而,很少有研究探讨使用图神经网络进行点云中的3D对象检测。我们的工作证明了使用GNN在点云中进行高精度目标我们提出的图神经网络Point-GNN将点图作为其输入。它输出每个顶点所属对象的类别和边界框。点GNN是一种单阶段检测方法,可在单次拍摄中检测多个对象。为了减少图神经网络中的翻译方差,我们引入了一个1712自动配准机制,其允许点基于其特征对准其坐标。我们进一步设计了一个盒子合并和评分操作,以准确地结合多个顶点的检测结果。我们在KITTI基准上对所提出的方法进行了评估。在KITTI基准测试中,Point-GNN仅使用点云即可达到最先进的精度,甚至超过了传感器融合方法。我们的点GNN显示了一种新型的三维物体检测方法的潜力,使用图神经网络,它可以作为一个很好的基线,为未来的研究。我们对Point-GNN中组件的有效性进行了总之,本文的贡献在于:• 我们提出了一种新的目标检测方法,使用图神经网络的点云。• 我们设计了Point-GNN,这是一种具有自动配准机制的图神经网络,可以在单次拍摄中检测多个对象。• 我们在KITTI基准测试中实现了最先进的3D物体检测精度,并深入分析了每个组件的有效性。2. 相关工作如图1所示,在此背景下的先前工作可以分为三类。网格中的点云。最近的许多研究将点云转换为规则网格以利用卷积神经网络。[20]将点云投影到2D鸟瞰(BEV)图像并使用2D CNN进行对象检测。[4]将点云投影到BEV图像和前视图(FV)图像,然后在两者上应用2D CNN由于有限的图像分辨率,这种投影引起量化误差。一些方法将点云保持在3D坐标中。[23]表示3D体素中的点,并将3D卷积应用于对象检测。当体素的分辨率增长时,3D CNN的计算成本以立方方式增长,但由于点稀疏性,许多体素是空的。诸如稀疏卷积[19]之类的优化降低了计算成本。将点云转换为2D/3D网格会遇到点的不规则分布与网格的规则结构之间的不匹配集合中的点云 深度学习技术在诸如正如PointNet [3]和DeepSet[22]所示,神经网络可以直接从无序的点集中提取特征。在这种方法中,每个点由多层感知器(MLP)处理这些特征通过平均或最大池化函数聚合以形成整个集合的全局特征向量[14]进一步提出了点特征的层次聚合,并通过在一些点关键点。然后,这些子集的特征再次被分组到集合中以用于进一步的特征提取。许多3D对象检测方法利用这种神经网络来处理点云,而不将其映射到网格。然而,大规模的点的采样和分组导致额外的计算成本。大多数对象检测研究仅将集合上的神经网络作为流水线的一部分。[13]从相机图像中生成对象建议,并使用[14]将对象与背景中的点分开,并预测边界框。[16]使用[14]作为骨干网络,直接从点云生成边界框建议。然后,它使用第二阶段的点网络来细化边界框。混合方法,如[23] [19] [10] [21]使用[3]从局部点集提取特征,并将特征放置在卷积操作的规则网格上。虽然它们在一定程度上减少了点云的局部不规则性,但它们仍然存在规则网格与整体点云结构之间的不匹配图形中的点云。 图神经网络[18]试图将卷积神经网络推广到一种图形表示。GNN通过沿着边聚合特征来迭代地更新其虽然聚合方案有时类似于集合上的它通常不需要重复对顶点进行采样和分组。在计算机视觉领域,一些方法将点云表示为图形。[15]使用递归GNN对RGBD数据进行语义分割。[9]将点云划分为简单的几何形状,并将它们链接到一个图形中进行语义分割。[2][17]研究使用GNN对点云进行分类。到目前为止,很少有调查研究设计一个图形神经网络的对象检测,其中一个明确的预测对象的形状是必需的。我们的工作与以前的工作不同,设计了一个用于对象检测的GNN。我们使用图形表示来保持点云的不规则性,而不是将点云转换为规则网格,例如图像或体素。与重复采样并将点分组到集合中的技术不同,我们只构建一次图。然后,所提出的Point-GNN通过迭代更新相同图形上的顶点特征来提取点云的特征我们的工作是一个单阶段的检测方法,不需要开发第二阶段的细化神经网络[21][22][23][24][25][26][27]3. 基于点GNN的点云三维目标检测在本节中,我们描述了所提出的方法来检测3D对象从点云。如图2所示,我们的方法的整体架构包含三个组件:(a)图构造,(b)T次迭代的GNN,1713伊伊季图2.所提出的方法的架构。它有三个主要组成部分:(a)从点云的图形构造,(b)用于对象检测的图形神经网络,以及(c)边界框合并和评分。以及(c)边界框合并和评分。3.1. 图构建形 式 上 , 我 们 将 N 个 点 的 点 云 定 义 为 集 合P={p1,...,pn},其中pi=(xi,si)是一个点,其三维坐标xi∈R3,状态值si∈Rk是一个表示点性质的k长度向量. 国值S1可以是反射的激光强度或编码周围物体的特征。给定一个点云P,以点云P为顶点,在固定半径r内连接一点与其相邻点,构造一个图G=(P,E),即E={ ( pi , pj ) |<$xi−xj<$2Th,则7L←Lbj8B<$B−bj,D<$D−dj9端部10端部11米←中位数(L)12岁←发生在12岁以下(男)13z←(o+ 1)bk∈LIoU(m,bk)dk14M←Mm,Z← Zz15末端16返回M、Z仅基于分类得分来挑选不准确的边界框为了提高定位精度,我们建议通过考虑整个重叠盒簇来计算合并盒。更具体地说,我们考虑了重叠边界框的中值位置和大小。我们还将置信度得分计算为由交集(IoU)因子和遮挡因子加权的分类得分之和。闭塞因子表示占用电压比。Giv enaboxbi,设li,wi,hi为它的长、宽、高,设vl,vw,vh为分别表示它们方向的单位向量XJ是点pj 的 坐 标。则遮挡因子Oi为:在我们的方法中只使用点云。由于数据集只注释图像中可见的对象,因此我们只处理图像视野内的点云。KITTI基准评估三种类型对象的平均精度(AP):汽车、行人和自行车。由于规模差异,我们遵循常见的做法[10][23][19][21],并为汽车训练一个网络,为行人和骑自行车的人训练另一个网络。对于训练,我们删除不包含感兴趣对象的样本。4.2.实现细节我们在我们的图神经网络中使用三次迭代(T=3)。在训练过程中,我们将每个顶点的最大输入边数限制为256。在推理过程中,我们使用所有输入边。所有GNN层使用单元(64,3)的两层MLPh执行自动配准。 MLP 类的大小为(64,#(类))。对于每个类,MLPloc的大小为(64,64,7)。汽车:我们设置(lm,hm,wm)为汽车绑定框(3.88 米 , 1. 5 米 , 1. 63 米 ) 。 我 们 将 侧 视 车θ∈[−π/4,π/4]和正视车θ∈[π/4,3π/4]视为两个不同的类。因此,我们分别设置θ0= 0和θ0=π/2比例θm设定为π/2。结合背景类和不关心类,预测了4类 我们构造了r = 4m,r0=1m的图.我们将P_n设置为在训练中通过0.8米的体素大小和在推断中通过0.4米的体素大小进行的D_n采样的点云。MLPf和MLPg的大小都是(300,300)。对于初始顶点状态,我们使用MLP用于嵌入原始点的(32,64,128,300)的MLP和在Max聚合之后的(300,300)的另一MLP 我们设Th=0。01在NMS行人和自行车。同样,我们将(lm,hm,wm)设置为中值边界框大小。我们设置(0. 88米,1. 77米,0. 65米)的行人和(1。76米,1. 75m,0. 6米)为骑自行车。与我们对Car类所做的类似,我们将前视图和侧视图对象视为两个不同的类。-1oi=Ymax(vTxj)−min(vTxj)(10)与Background类和DoNotCare类一起预计有6个班级 我们使用r = 1构建图。6米liwihipj∈biv∈{vl,vw,vh}pj∈bi并通过0.4me的体素大小对点云进行下采样,我我我我们修改标准NMS,如算法1所示。它返回合并的边界框M及其置信度得分Z。我们将在第4节中研究其有效性。4. 实验4.1. 数据集我们使用广泛使用的KITTI对象检测基准[6]来评估我们的设计KITTI数据集包含7481个训练样本和7518个测试样本。每个样本都提供点云和相机图像。我们训练成绩为1.5米,推理成绩为0.2米。MLPf和MLPg 的大小都是(256,256)。对于顶点状态初始化,我们设置r0= 0。4米 我们使用(32,64,128,256,512)的MLP进行嵌入,使用(256,256)的MLP处理聚合特征。 我们设Th=0的情况。2在NMS我们以4的批量大小端到端地训练拟议的GNN损失权重为α= 0。1,β= 10,γ= 5e−7。我们使用具有阶梯学习率衰减的随机梯度下降(SGD)。对于Car,我们使用初始学习率的0。125,衰减率为0。每400K步1次。我们训练了1400K步的网络对于行人和1717方法模态容易车中度硬容易行人中度硬容易骑车人中度硬[12]第十二话LiDAR +图像82.5466.2264.04N/AN/AN/AN/AN/AN/AAVOD-FPN[8]LiDAR +图像81.9471.8866.3850.8042.8140.8864.0052.1846.61F-PointNet[13]LiDAR +图像81.2070.3962.1951.2144.8940.2371.9656.7750.39UberATG-MMF[11]LiDAR +图像86.8176.7568.41N/AN/AN/AN/AN/AN/A[23]第二十三话LiDAR81.9765.4662.8557.8653.4248.8767.1747.6545.11第二届[19]LiDAR83.1373.6666.2051.0742.5637.2970.5153.8553.85[第10话]LiDAR79.0574.9968.3052.0843.5341.4975.7859.0752.92[16]第十六话LiDAR85.9475.7668.3249.4341.7838.6373.9359.6053.59标准[21]LiDAR86.6177.6376.0653.0844.2441.9778.8962.5355.77我们的积分-GNNLiDAR88.3379.4772.2951.9243.7740.1478.6063.4857.08表1.KITTI测试数据集上3D物体检测的平均精度(AP)比较方法模态容易车中度硬容易行人中度硬容易骑车人中度硬[12]第十二话LiDAR +图像88.8185.8377.33N/AN/AN/AN/AN/AN/AAVOD-FPN[8]LiDAR +图像88.5383.7977.958.7551.0547.5468.0657.4850.77F-PointNet[13]LiDAR +图像88.7084.0075.3358.0950.2247.2075.3861.9654.68UberATG-MMF[11]LiDAR +图像89.4987.4779.10N/AN/AN/AN/AN/AN/A[23]第二十三话LiDAR89.6084.8178.5765.9561.0556.9874.4152.1850.49第二届[19]LiDAR88.0779.3777.9555.1046.2744.7673.6756.0448.78[第10话]LiDAR88.3586.1079.8358.6650.2347.1979.1462.2556.00标准[21]LiDAR89.6687.7686.8960.9951.3945.8981.0465.3257.85我们的积分-GNNLiDAR93.1189.1783.955.3647.0744.6181.1767.2859.67表2.在KITTI测试数据集上鸟瞰视图(BEV)对象检测的平均精度(AP)比较我们使用0的学习率。32和衰变率0的情况。每40万步25个。 我们训练它1000K步。4.3. 数据增强为了防止过度拟合,我们对训练数据进行数据增强与许多使用复杂技术来创建新的地面真值框的方法不同,我们选择了一个简单的全局旋转,全局翻转,框平移和顶点抖动的方案在火车上-ing,我们随机旋转点云通过偏航θN(0,π/8),然后以概率0翻转x轴。五、之后,每个盒子和盒子110%大小内的点随机移动(x<$N(0,3),y= 0,z<$N(0,3))。我们使用一个大10%的框来选择点,以防止切割对象。在翻译过程中,我们检查并且避免框之间或背景点与框之间的冲突。在图形构建过程中,我们使用随机体素下采样来诱导顶点抖动。4.3.1结果我们已经将我们的结果提交给KITTI 3D对象检测基准和鸟瞰视图(BEV)对象检测基准。在表1和表2中,我们将我们的结果与现有文献进行了比较。KITTI数据集领先的结果,汽车检测的容易和中等水平,也骑自行车检测的中等和困难的水平。值得注意的是,在Easy级别的BEV Car检测上,我们超过了之前最先进的方法3.45。此外,除了行人检测,我们在所有类别中都优于基于融合的算法。在图3中,我们提供了所有类别的定性检测结果。摄像机图像和点云的结果都可以可视化。必须注意的是,我们的方法只使用点云数据。相机图像纯粹用于目视检查,因为测试数据集不提供地面真实标签。如图3所示,我们的方法仍然可以很好地检测行人,尽管没有达到最高分。行人检测不如汽车和骑自行车的人好的一个可能原因是顶点不够密集,无法实现更准确的边界框。4.4. 消融研究对于消融研究,我们遵循标准实践[10][21][5],并将训练样本分为3712个样本的训练样本和3769个样本的验证样本。我们使用训练分割来训练网络,并评估其在验证分割上的准确性我们遵循相同的方案,并通过AP1评估准确性。除非针对受控实验进行明确修改,否则该网络不适用于在三个难度级别上评估平均精度(AP)ELS:简单、温和和困难。 我们的方法实现了1消融研究使用KITTI 11-recall位置AP。1718图3.使用Point-GNN的KITTI测试数据集的定性结果我们在图像和点云上显示了预测的汽车(绿色),行人(红色)和骑自行车者(蓝色)的3D边界框最好用彩色观看。框合并框评分汽车Reg.容易BEV AP(汽车)中度硬容易3D AP(汽车)中度硬1---89.1187.1486.1885.4676.8074.892--C89.0387.4386.3985.5876.9875.693C-C89.3387.8386.6386.5977.4976.354- -C键C89.6088.0286.9787.4077.9076.755CC-90.0388.2787.1288.1678.4077.496CCC89.8288.3187.1687.8978.3477.38表3.瓣膜消融研究。分割KITTI数据。定量和训练参数与前一节中的参数相同。我们专注于汽车的检测,因为它在数据集中占主导地位。框合并和评分。在表3中,我们比较了具有和不具有框合并和评分的对象检测准确性。对于没有合并框的测试,我们修改行如表中第6行所示,它们在每个类别中进一步优于类似地,当不使用自动配准时,框合并和框评分(行5)也实现了比标准NMS(行1)更高的准确性。这些结果证明了框评分和合并的有效性。自动注册机制。表3还显示了自动配准机制的准确性改进如第2行所示,通过单独使用自动配准,我们在3D检测的每个类别以及BEV检测的中等和困难类别上也超过了没有自动配准的基线(第1行)。BEV检测的简单类别的性能略有下降,但仍然接近。结合自动注册机制算法1中的11个。而不是采取中位数边界框,我们直接采取边界框与最高的分类得分在标准NMS。对于不带外盒评分的测试,我们修改算法1中的第12行和第13行,以将最高分类评分设置为盒评分。对于没有框合并或评分的测试,我们修改了第11、12和13行,这基本上导致了标准NMS。表3的第2行显示了使用标准NMS和自动注册机制的基线实现如表3的第3行和第4行所示,框合并和框评分都优于基线。当结合时,通过框合并和评分(第6行),我们实现了更高的比单独使用自动配准更准确(第2行)。然而,所有三个模块的组合(第6行)并没有优于框合并和评分(第5行)。我们假设在添加自动配准分支后,可能需要调整正则化。我们通过可视化等式4中的偏移量λ x来进一步研究自动配准机制。我们从不同的GNN迭代中提取出pixix,并将它们添加到顶点位置。图4显示了输出检测结果的顶点及其添加偏移的位置。我们观察1719数量扫描线容易BEV AP(汽车)中度硬容易3D AP(汽车)中度硬6489.8288.3187.1687.8978.3477.383289.6279.8478.7785.3169.0267.681686.5661.6960.5766.6750.2348.29849.7234.0532.8826.8821.0019.53图4.一个来自val的例子。分裂显示顶点位置与增加的偏移。蓝点表示顶点的原始位置。橙色、紫色和红色点表示原始位置,其中添加了第一、第二和第三次图形神经网络迭代的偏移量最好用彩色观看。数量迭代容易BEV AP(汽车)中度硬容易3D AP(汽车)中度硬T = 087.2477.3975.8473.9064.4259.91T = 189.8387.6786.3088.0077.8976.14T = 290.0088.3787.2288.3478.5177.67T = 389.8288.3187.1687.8978.3477.38表4. KITTI值的平均精度。使用不同数量的点GNN迭代进行分割。具有增加的偏移的顶点位置朝向车辆的中心移动。无论原始顶点位置如何,我们都会看到这样的行为。换句话说,当GNN变得更深时,相邻顶点的相对坐标更少地依赖于中心顶点的位置,而更多地依赖于点云的属性。该偏移量消除了中心顶点的平移,从而降低了对顶点平移的敏感性。这些定性结果表明,方程4有助于减少顶点位置的平移方差。有关更多示例,请参见补充材料。点GNN迭代。我们的点GNN迭代地细化顶点状态。在表4中,我们研究了迭代次数对检测精度的影响。我们训练T = 1,T = 2的点GNN,并将它们与T = 3进行比较,这是第4.3.1节中的配置。此外,我们直接使用初始顶点状态来训练检测器,而无需任何Point-GNN迭代。如表4所示,初始顶点状态单独实现最低精度,因为它在顶点周围仅具有小的感受野。如果没有点GNN迭代,局部信息就不能沿着图的边缘流动,因此它的感受野不能扩展。即使使用单个Point-GNN迭代T= 1,准确度也显著提高。T= 2比T= 3具有更高的准确性,这可能是由于神经网络更深入时的训练难度。运行时间分析。检测算法的速度对于诸如自动驾驶的实时应用是重要的。然而,影响算法运行时间的因素很多,包括算法结构、代码优化和硬件资源等.此外,优化表5.下采样KITTI值的平均精度。 分裂执行不是这项工作的重点。 然而,在这方面, 当前推理时间的分解有助于未来的优化。我们的实现是用Python编写的,并使用Tensorflow进行GPU计算。我们在配备Xeon E5-1630 CPU和GTX 1070 GPU的台式机上测量了推理时间。验证分割中一个样本的平均处理时间为643 ms。读取数据集和运行校准需要11.0%的时间( 70 ms ) 。 创 建 图 形 表 示 消 耗 18.9% 的 时 间(121ms)。GNN的推理时间为56.4%(363ms)。框合并和评分需要13.1%的时间(84 ms)。请参阅我们的代码以了解实现细节。对LiDAR稀疏性的鲁棒性。KITTI数据集使用64扫描线LiDAR收集点云数据。这样的高密度LiDAR通常导致高成本。因此,研究目标检测技术具有重要意义在密度较低的点云中的性能为了模拟具有较少扫描线的LiDAR系统,我们在KITTI验证数据集中对扫描线进行了下采样由于KITTI给出的点云没有扫描线信息,我们使用k-means将点的仰角聚类成64个聚类,其中每个聚类代表一条LiDAR扫描线。然后,我们通过跳过中间的扫描线将点云降采样为32,16,8扫描线。我们对下采样KITTI验证分割的测试结果如表5所示。中硬电平的精度随着下采样数据快速下降,而易电平数据的检测保持合理的精度,直到下采样到8条扫描线。这是因为易水平物体大多靠近LiDAR,因此即使扫描线的数量减少,也具有密集的点云。5. 结论我们提出了一个图神经网络,称为点GNN,从图表示检测3D对象的点云。通过使用图形表示,我们编码的点云紧凑,没有映射到一个网格或采样和分组重复。我们的Point-GNN在KITTI基准的3D和鸟瞰视图对象检测中均达到领先的精度实验结果表明,本文提出的自动配准机制降低了过渡方差,框合并和评分操作提高了检测精度。在未来,我们计划优化推理速度,并融合来自其他传感器的1720引用[1] 乔恩湖唐纳德·本特利Stanat和E.Hollins Williams。寻找固定半径近邻的复杂性。信息处理快报,6(6):209-212,1977. 3[2] Yin Bi , Aaron Chadha , Alhabib Abbas , EirinaBourtsoulatze,and Yiannis Andreopoulos.神经形态视觉传感的基于图形的对象分类。在IEEE国际计算机视觉会议(ICCV)上,2019年10月。一、二[3] R. Q. Charles , H. 苏 , M 。 Kachun 和 L.J. GuibasPointnet:用于3D分类和分割的点集深度学习2017年IEEE计算机视觉和模式识别会议(CVPR),第77-85页,2017年7月。一、二、四[4] X. Chen,H. Ma,J. Wan,B. Li和T.夏用于自动驾驶的多视角三维物体检测网络。2017年IEEE计算机视觉和模式识别会议(CVPR),第6526-6534页,2017年7月。2[5] Yilun Chen,Shu Liu,Xiaoyong Shen,and Jiaya Jia.快点r-cnn.在IEEE计算机视觉国际会议(ICCV)上,2019年10月。6[6] Andreas Geiger,Philip Lenz,and Raquel Urtasun.我们准备好自动驾驶了吗?Kitti Vision基准套件。在计算机视觉和模式识别会议中,2012年。5[7] 彼得·J·胡贝尔。 位置参数的鲁棒估计。安数学统计学家。,35(1):73-101,031964. 4[8] J. 库,M。Mozifian,J.Lee,A.Harakeh和S.L. 瓦斯兰德从视图聚合联合生成3d建议和对象检测。在2018年IEEE/RSJ智能机器人和系统国际会议(IROS)上,第16[9] Loic Landrieu和Martin Simonovsky。基于超点图的大规模点云语义分割。在IEEE计算机视觉和模式识别会议上,2018年6月。一、二[10] 亚 历 克 斯 ·H Lang , Sourabh Vora , Holger Caesar ,Lubing Zhou,Jiong Yang,and Oscar Beijbom.点柱:用于从点云中检测物体的快速编码器。在IEEE计算机视觉和模式识别会议(CVPR)中,2019年6月。一二三五六[11] 梁明,杨斌,陈云,胡瑞,拉奎尔·乌塔孙.三维目标检测的多任务多传感器融合。在IEEE计算机视觉和模式识别会议(CVPR)上,2019年6月。二、六[12] Ming Liang , BinYang , Shenlong Wang , and RaquelUrtasun.多传感器三维目标检测的深度连续融合在欧洲计算机视觉会议(ECCV)上,2018年9月。6[13] C. R.齐,W. Liu,C. Wu,H. Su和L.吉巴斯基于rgb-d数据的Frus- tum点网三维目标检测。2018年IEEE/CVF计算机视觉和模式识别会议,第918-927页,2018年6月。二、六[14] Charles R Qi,Li Yi,Hao Su,and Leonidas J Guibas.Point- net++:度量空间中点集上的深度层次特征学习。arXiv预印本arXiv:1706.02413,2017。2[15] X.齐河,巴西-地Liao,J. Jia,S. Fidler和R.乌塔松用于RGBD语义分割的3D图神经网络。在2017年IEEE国际计算机视觉会议(ICCV)上,第5209-5218页,2017年10月。一、二[16] Shaoshuai Shi , Xiaogang Wang , and Hongsheng Li.Pointr- cnn:从点云生成和检测3D对象建议。在IEEE计算机视觉和模式识别会议上,2019年6月。一、二、六[17] Wang Yue,Yongbin Sun,Ziwei Liu,Sanjay E.作者声明:Michael M. Bronstein和Justin M.所罗门点云学习的动态图cnn。ACM Transactions on Graphics(TOG),2019年。一、二[18] Zonghan Wu , Shirui Pan , Fengwen Chen , GuodongLong,Chengqi Zhang,and Philip S. Yu.图神经网络综述。arXiv电子版,第arXiv:1901.00596页,2019年1月。2[19] 严妍,毛宇星,李波。第二:稀疏嵌入卷积检测. 传感器,18(10),2018。二、五、六[20] B. 杨,W.Luo和R.乌塔松Pixor:从点云中实时检测3D2018年IEEE/CVF计算机视觉和模式识别会议,第7652- 7660页,2018年6月。2[21] Zetong Yang,Yanan Sun,Shu Liu,Xiaoyong Shen,Jiaaya Jia.Std:点云的稀疏到密集3D对象检测器。在IEEE计算机视觉国际会议(ICCV),2019年10月。一、二、五、六[22] Manzil Zaheer、Satwik Kottur、Siamak Ravanbakhsh、Barnabas Poczos、Ruslan R Salakhutdinov和Alexander JSmola。深套。在重症盖永V. Luxburg,S. 本吉奥H. 瓦 拉 赫 河 Fergus , S.Vishwanathan 和 R.Garnett ,editors , Advances in Neural Information ProcessingSystems 30 , pages 3391Curran Associates , Inc. 2017.一、二[23] Y. Zhou和O.图泽尔Voxelnet:基于点云的3D对象检测的端到端学习。2018年IEEE/CVF计算机视觉和模式识别会议,第4490-4499页,2018年6月。二三五六
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 高清艺术文字图标资源,PNG和ICO格式免费下载
- mui框架HTML5应用界面组件使用示例教程
- Vue.js开发利器:chrome-vue-devtools插件解析
- 掌握ElectronBrowserJS:打造跨平台电子应用
- 前端导师教程:构建与部署社交证明页面
- Java多线程与线程安全在断点续传中的实现
- 免Root一键卸载安卓预装应用教程
- 易语言实现高级表格滚动条完美控制技巧
- 超声波测距尺的源码实现
- 数据可视化与交互:构建易用的数据界面
- 实现Discourse外聘回复自动标记的简易插件
- 链表的头插法与尾插法实现及长度计算
- Playwright与Typescript及Mocha集成:自动化UI测试实践指南
- 128x128像素线性工具图标下载集合
- 易语言安装包程序增强版:智能导入与重复库过滤
- 利用AJAX与Spotify API在Google地图中探索世界音乐排行榜
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功