没有合适的资源?快使用搜索试试~ 我知道了~
Motion estimation is a fundamental building block fornumerous applications such as robotics, augmented realityand autonomous driving. The low-level motion cues canserve other higher-level tasks such as object detection andaction recognition. Given a pair or a sequence of images, wecan estimate 2D flow fields from optical flow estimation byeither classic variational methods or modern deep learningmethods [25,51,52].Different from the scene flow methods that extend 2Doptical flow to stereoscopic or RGB-D image sequences [21,24], increasing attention has been paid to the direct 3D flow82160RCP:点云的递归最近点0顾晓东 1 唐成洲 2 袁伟豪 1 戴作卓 1 朱思宇 1 谭平 1201 阿里巴巴集团 2 西蒙菲莎大学0摘要03D运动估计,包括场景流和点云配准,引起了越来越多的关注。受2D流估计的启发,最近的方法使用深度神经网络构建成本体积来估计准确的3D流。然而,由于点云的不规则数据结构,这些方法受到了限制,很难在点云上定义一个搜索窗口。在本文中,我们通过一种简单而有效的方法避免了这种不规则性。我们将问题分解为两个交错的阶段,第一阶段在点的层面上优化3D流,然后在第二阶段的循环网络中进行全局正则化。因此,循环网络只接收规则的点对点信息作为输入。在实验中,我们在广泛使用的FlyingThings3D[32]和KITTI[33]数据集上评估了所提出的方法的3D场景流估计和点云配准任务。对于点云配准,我们遵循之前的工作,并评估了具有大姿态和部分重叠的ModelNet40[65]数据对。结果表明,我们的方法在3D场景流估计和点云配准方面优于先前的方法,并在两个任务上实现了新的最先进性能,这证明了所提出的零阶方法在不规则点云数据上的优越性。我们的源代码可在https://github.com/gxd1994/RCP找到。01. 引言0iter=00iter=30iter=70iter=140图1.KITTI场景流数据集上结果的可视化。随着交替优化次数的增加,源点云(绿色)逐渐与目标点云(蓝色)对齐。0最近,基于点云的估计方法在许多应用中比基于图像的方法具有几个优势。例如,其中一个最显著的好处是它避免了图像传感器读数和从图像计算深度的额外计算,从而实现了对于高速驾驶车辆的低延迟3D流估计。而对于增强现实,特别是对于AR眼镜,点云上的3D流估计使得计算分布在云服务器上,因为它比图像节省了更多的传输带宽。它还通过不使用图像来保护周围人的隐私。因此,一些基于学习的方法[2, 18, 27, 30,61]利用了为高级任务所做的最新进展,并专门为点云定制了场景流估计。这些方法从成本体积中预测3D流向量,其中测量了两个点云集合中3D点之间的相似性成本。然而,与在连续图像中搜索固定规则邻域的2D光流中的成本体积不同[25, 51,52],在点云上定义这样一个搜索窗口是不可能的,因为点云具有不规则的数据结构。因此,之前的工作如[18, 27, 30,64],他们设计了一些复杂的层来测量点到块的成本或块到块的成本。在本文中,我们通过一个简单而有效的方法避免了这种不规则性。我们将问题分解为两个交错的阶段,第一阶段在点的层面上优化3D流,然后在第二阶段的循环网络中进行全局正则化。因此,循环网络只接收规则的点对点信息作为输入。在实验中,我们在广泛使用的FlyingThings3D [32]和KITTI[33]数据集上评估了所提出的方法的3D场景流估计和点云配准任务。对于点云配准,我们遵循之前的工作,并评估了具有大姿态和部分重叠的ModelNet40[65]数据对。结果表明,我们的方法在3D场景流估计和点云配准方面优于先前的方法,并在两个任务上实现了新的最先进性能,这证明了所提出的零阶方法在不规则点云数据上的优越性。我们的源代码可在https://github.com/gxd1994/RCP找到。Point Cloud Registration. The task of point cloud regis-tration is to find the spatial transformation between twopoint clouds.Traditional methods are mainly based onthe iterative closest point (ICP) [3, 47] and its variants[16, 36, 40, 41, 48, 55, 67]. Recent works learn deep neu-ral networks for point cloud registration and can be dividedinto two streams. One stream [1,8,12,17,23,35,71] studieshow to leverage better point cloud feature presentation inoff-the-shelf optimization. PointNetLK [1] defines a feature-metric distance between point clouds, which is measuredby the features from PointNet [38], and unrolls the classicalLucas & Kanade (LK) algorithm into a recurrent network tominimize this distance.Another stream [15, 23, 31, 46, 62, 63] studies the opti-mization process itself, which usually makes the optimiza-tion algorithm differentiable and incorporate it into a deeplearning pipeline. To improve the robustness against noise,PCRNet [46] proposes a framework which estimates thepose with a deep MLP network instead of the traditionalLK algorithm. Deep Closest Point [62] proposes an end-to-end pipeline with a point cloud embedding network, anattention-based matching module, and a differentiable singu-lar value decomposition (SVD) layer to estimate the spatialtransformation. RPM [17] and RPMNet [69] use Sinkhornnormalization [48] to handle outliers and partial visibility. Tofurther decrease the sensibility to outlier points, RGM [15]develops a deep graph matching network which considersboth the local geometry of each point and its structure andtopology in a larger range so that more correspondences canbe found. Inspired by RAFT [52], we use a recurrent net-work directly to estimate the residual of the transformationto find more high-quality correspondences.82170有效的方法。我们将问题分解为两个交织的阶段,在第一阶段,优化点云的3D流,并在第二阶段在循环网络中进行全局正则化。因此,循环网络只接收规则的点对信息作为输入。除了场景流估计,我们的方法还能实现另一个重要的运动估计任务,即将具有不同6自由度姿态的两个点云进行配准。由于我们只测量点对之间的代价,我们避免了6自由度解空间的离散化,这是困难的,因为旋转向量和平移向量是两个具有不同尺度和范围的不同变量。为了评估所提出的方法,我们在3D场景流估计和点云配准两方面进行了实验。对于3D场景流估计,我们在广泛使用的FlyingThings3D[32]和KITTI[33]基准上进行了比较。对于点云配准,我们遵循之前的工作,并从ModelNet40[65]生成具有大姿态和部分重叠的数据对。我们在3D场景流估计和点云配准两方面都取得了最先进的结果,证明了所提出的零阶方法在不规则点云数据上的优越性。02. 相关工作0点云网络。在神经网络出现之前,基于启发式知识提出了各种手工制作的3D特征描述符[20]。这些描述符通常根据空间坐标[14, 26, 54]或几何属性[6,44]累积测量到直方图中。其他工作,如PFH [43]和FPFH[42],提出了旋转不变的描述符。然而,传统特征是手工设计的,不能太复杂。最近,越来越多的方法开始使用深度神经网络来学习特征。3DMatch[70]利用对比损失来训练具有3D卷积神经网络的描述符,但体素化导致了特征质量的损失。为了解决这个问题,PPFNet[10]使用PointNet[38]直接学习点云特征。此外,还检测显著的关键点来描述点云[28, 68]。在这项工作中,我们使用PointNet++[39]提取点云特征,考虑到它强大的特征表示能力。0点云上的3D流估计。场景流估计任务首次在[59]中引入,然后从图像[21, 24]发展到点云[11, 56,57]。[11]将场景流估计问题形式化为能量最小化问题。[57]在能量最小化之前构建占用栅格并过滤背景,然后在过滤后对结果进行细化。后续工作中引入了一个编码网络来学习特征。0从占用栅格中构建。0最近,越来越多的方法使用深度神经网络进行3D流估计[2,18, 27, 30, 61, 64]。FlowNet3D[30]设计了一个学习点云和表示点运动的流嵌入的分层特征的网络。HPLFlowNet[18]提出了一个双边卷积层,将点云投影到permutohedral格子上。PointPWC-Net[64]提出了一个可学习的代价体积层,以及上采样和变形层,构建了一个从粗到细的深度网络,以高效处理点云。FLOT[37]使用最优传输工具来估计场景流,而不使用多尺度分析。最近的工作[19, 29, 34,52]通过使用模型展开方法获得了有希望的结果,FlowStep3D [27]采用GRU[7]来迭代地改进场景流,并展示了出色的结果。然而,上述所有方法都需要定义代价体积,考虑到点云的不规则性,这是很难设计的。相比之下,我们通过逐点优化代价点,并将规则的点对信息发送到循环网络中,避免了这种不规则性。Feature ExtractionSample &GroupSample &GroupPointNetPointNetFeature MatchingFeature ExtractionSample &GroupSample &GroupPointNetPointNetPoint-wise OptimizationInitializationIter KRecurrent RegularizationIter KTarget Point Cloud Source Point CloudFigure 2. Overview of our framework. We first extract the point cloud features by a shared PointNet++ [39] backbone, followed by thesinkhorn algorithm [48] to get the initialized results from feature matching. Then, we decompose the problem into two sub-problems andutilize the proposed point-wise optimization and recurrent regularization modules to estimate either the 3D scene flow or the transformation.3. Method3.1. OverviewGiven two point clouds P= {p1, p2, · · · pM} andQ = {q1, q2, · · · qN}, where P and Q do not necessarilyhave the same number of points or have any exact corre-spondence between their points, our goal is to estimate thetransformation X between them, which can be either a set ofpoint-wise 3D flow vectors {x1, x2, · · · xM} for a dynamicscene or a 6-DOF transformation {Q, T } for a rigid scene,where Q is the rotation quaternion and T is the 3D transla-tion vector. As shown in Fig. 2, we first extract the featureof each 3D point in P and Q by a shared PointNet++ [39]in Sec. 3.2, and then estimate the initial transformation X0via the sinkhorn [9,37,45,48] based feature matching. Thenthe initial solution X 0 is further updated by minimizing thefollowing objective function:E(X) = DP,Q(X) + R(X),(1)where the data term DP,Q measures the feature distancebetween P and Q under a transformation X, and the regular-ization term R(X) measures the object-aware smoothness ofX itself, i.e., neighboring points on the same object shouldhave similar flow vectors.E(X, Z) = DP,Q(Z) + R(X) + ∥Z − X∥22.(2)82180然而,直接优化公式(1)是困难的,其中一个主要原因是变换后的点 p m + x m 并不完全对应于 Q 中的任何点 q n,因此 p m 和 p m + x m 之间的特征距离无效,数据项D P , Q 对于变换 X是不可微分的。受以前的工作中二次松弛的启发[50],我们引入一个辅助变换 Z ,将公式(1)转化为:0辅助变量 Z将数据项和正则化项分离开来,因此它们可以分别进行优化。同时,附加项 ∥Z − X∥ 2 2 通过优化过程使 Z 和 X靠近彼此。Z 和 X 交替更新如下:� � �0其中 k 表示第 k次迭代。在每次迭代中,我们首先通过第3.3节的点对点优化求解 Z k ,然后通过第3.4节的循环正则化隐式求解 X k 。03.2. 特征提取0首先,我们使用通过sinkhorn特征匹配[48]、公式(3)的点对点优化以及公式(4)的循环正则化所使用的特征。我们使用PointNet++[39]提取每个3D点的特征,并将 f P ( ∙ ) 和 fQ ( ∙ ) 分别表示为对 P 和 Q进行特征提取的操作。PointNet++[39]设计了集合卷积层,其中包括采样层、分组层和PointNet[38]层。采样层通过迭代最远点采样将点云子采样为原始数量的1/4。分组层将每个点周围的k个最近邻点(k =32)分组,然后使用最大池化进行特征聚合。03.3. 点对点优化0给定上一次迭代的解 X k − 1 = { x k − 1 1 , x k − 1 2 , ∙ ∙ ∙ xk − 1 M },我们首先通过点对点优化来最小化公式(3)以更新 Z k。辅助变换 Z k =EPE3Dzkm = arg min fP(pm)fQ(pm + z) + zxk−1m.zkm = 1W qΩexp(− ∥fP(pm) − fQ(qn)∥σf− ∥un − xk−1m∥σu)un,zkm =(8)82190成本0图3.Flyingthigs3D数据集上随着迭代次数的变化,成本和EPE3D误差的曲线。随着交替优化的进行,成本逐步下降,而EPE3D误差逐渐减小。0{ z k − 1 1 , z k − 1 2 , ∙ ∙ ∙ z k − 1 M } 包含 P中每个点的辅助流向量。辅助流向量 z k m 同时最小化 f P (p m ) 和 f Q ( p m + z k m ) 之间的特征距离以及 z k m和 x k − 1 m 之间的欧氏距离:0(5) 然而,p m + z 通常不完全对应于 Q 中的任何点 q n,因此我们将 u n = q n − p m 作为 z k m 的候选,并在 pm + x k − 1 m 的局部邻域 Ω 中搜索最佳的 q n。这种胜者通吃的选择进一步以双边插值的形式软化:0(6)其中,W是归一化项,它求和所有双边权重。经验上,可以进一步用余弦相似度替代反向距离 − ( ∥ f P ( p m )− f Q ( q n ) ∥ ) /σ f ) 和 − ( ∥ u n − x k − 1 m ∥ ) /σ u ,以获得更好的性能,这将将公式(6)转化为:0在公式(7)中,q n ∈ Ω softmax( g �m g n ) u n0其中gm连接fP(pm)和pm+xk−1m的位置编码,而gn连接fQ(qn)和qn的位置编码。公式(7)类似于注意力[58]机制,但是对于关键字和查询使用相同的特征操作符。0对于点云配准,需要进行两个额外的步骤。首先,在公式(7)之前,通过p m与其对应的由X k−1={Q k−1,Tk−1}变换的投影之间的差异计算逐点流向量xk−1m。其次,在估计z km之后,通过PnP算法[13]从辅助的3D流向量z k1∙∙∙M计算出辅助的6自由度变换Z k。0位置编码器0位置编码器0(组0MLPsAttn0点积和SoftMax0MLPs Attn Residual0点积和求和0连接0图4.逐点优化模块的详细信息。位置编码器和MLPs-attention块都由两个全连接层组成。这两个块的参数对于点云P和Q是共享的。残差块用于获取当前估计点及其邻域点的位置残差。3.4.循环正则化0给定上一节中的辅助变换Zk,我们通过一个循环网络将Zk进一步隐式地正则化为Xk。循环网络接收上一次迭代的隐藏状态hk−1和当前迭代的信息vk=[fP(pm)−fQ(pm+xk−1m),zk]作为输入,其中fQ(pm+xk−1m)的插值类似于公式(7)。然后,通过类似于GRU[7]的循环单元产生更新的隐藏状态hk,如下所示:0wk=σ(set_conv_w([hk−1,vk])),0rk=σ(set_conv_r([hk−1,vk])),˜hk=tanh(set_conv_h([rk⊙hk−1,vk])),0hk=(1−wk)⊙hk−1+wk⊙˜hk,0其中⊙是逐元素乘积,[∙,∙]是连接操作,σ(∙)是sigmoid激活函数。为了初始化第一次迭代的隐藏状态h0,我们设置Z1=X0,并通过两个set_conv层传递v1。0在生成新的隐藏状态hk之后,我们使用由两个set_conv层组成的变换预测器估计Zk与正则化变换Xk之间的残差∆Zk,并更新变换为Xk=Zk+∆Zk。对于点云配准,我们还对隐藏状态hk在所有点上进行最大池化,并从最大池化的特征向量中预测出残差6自由度变换∆Zk,并将变换在SE(3)流形中更新为Xk=∆Zk�Zk。04.训练损失0与之前的方法[27,64]类似,我们的网络可以以监督方式或自监督方式进行训练。�i∥( ˆQ·pi + ˆT )−(Q∗ ·pi +T ∗)∥. (10)LC =pminqj∈Q ∥pi − qj∥22 +qminpi∈P′ ∥qj − pi∥22,LS =�i1|L(pi)|�pj∈L(pi)||ˆxpj − ˆxpi||22,(12)δi =�i1|L(pi)|�pjL(pi)(pj − pi).(13)LR =�p′i∈P′∥δ(p′i) − δ(qinter)∥22,(14)Lselflow = α1LC + α2LS + α3LR.(15)Quantitative Comparisons We follow previous works [27,30,37,64] to use the following metrics for evaluation:• EPE3D (m): � ||Fpred − Fgt||2/N average distanceerror of all predicted values• Acc3DS: the percentage of points which statisfied||Fpred − Fgt||2 < 0.05m or ||Fpred − Fgt||2/Fgt <5%822004.1.监督训练0在场景流网络的训练中,给定每个点pi处的地面真实3D流向量{x�pi},采用L1损失:0L流=10M0�0i∥ˆxpi−x�pi∥,(9)0其中{^xpi}是上一次迭代中来自循环正则化的预测流。0在点云配准网络的训练中,我们首先使用地面真实变换{Q�,T�}和预测的变换ˆQ,ˆT分别对源点云P进行变换,然后计算变换后的点云之间的差异:0L寄存器=10M04.2. 自监督训练0由于真实的3D流成本较高,因此当无法获得真实数据时,网络需要利用几何先验作为监督。根据之前的工作[64],我们的自监督损失包括三个项:Chamfer距离、平滑正则化和Laplacian正则化[49,60]。0Chamfer项 Chamfer距离要求源点云 P 靠近目标点云 Q,并且互相之间的最近点为:0(11) 其中 P ′ 是通过预测的3D流向量从 P进行变换得到的。0平滑项平滑约束要求相邻点具有相似的3D流预测,如下所示:0其中 L ( p i ) 是点 p i 的局部邻域, | L ( p i ) |是该局部区域中的点数。0Laplacian项 Laplacian坐标向量近似表示点 p i周围的局部形状和曲率,如下所示:0理想情况下,变换后的点云 P ′ 应该与目标点云 Q具有相同的Laplacian坐标。0因此,我们采用了类似于[64]的基于Laplacian坐标的正则化项,如下所示:0其中 δ ( q inter ) 是从点云 Q 中与 p ′ i在相同位置进行插值的Laplacian坐标。0总结起来,场景流的自监督损失定义为这三个项的加权和,如下所示:05. 实验05.1. 3D流估计0数据集为了进行公平比较,我们按照之前的工作[27,30,37,64],在FlyingThings3D [32]和KITTI[33]上评估所有参与方法的3D流估计。FlyingThings3D是一个合成数据集,从ShapeNet[5]数据集中随机选择多个移动物体的场景进行渲染。它包含大约32k个带有地面真实视差和光流图的立体图像。为了用于3D流估计,我们按照[64]的方法将其后处理为19640个训练对和3824个测试对的点云,并且每个点云平均包含8192个3D点。类似地,KITTI场景流数据集[33]最初也是为了评估基于图像的方法而设计的。我们按照[64]的方法将其后处理为142个仅用于评估的测试对。0训练细节我们使用自监督和监督设置来训练和评估我们的方法,如第4节所述。为了加快训练速度,我们采用了两阶段的训练策略:首先,在4个GTX 2080TiGPU上将批量大小设置为8,并在Eq.(7)和Eq.(8)之间交替进行3次训练。学习率采用步长衰减策略,初始学习率设置为1e-3,然后每25个epoch减半,总共训练90个epoch;其次,我们从第一阶段的训练模型进行微调,但迭代次数更多,训练的epoch更少。我们将批量大小减小到4,以便进行7次Eq.(7)和Eq.(8)的迭代。初始学习率也减小到1.25e-4,然后每5个epoch衰减一次,模型训练10个epoch。DatasetsMethodSup.EPE3D↓Acc3DS↑AccDR↑Outliers3D↓FlyingThings3DICP [4]Self0.40620.16140.30380.8796Ego-motion [53]Self0.16960.25320.55010.8046PointPWC-Net [64]Self0.12460.30680.65520.7032FlowStep3D [27]Self0.08520.53630.82620.4198OursSelf0.07650.58580.86020.4142FlowNet3D [30]Full0.11360.41250.77060.6016HPLFlowNet [18]Full0.08040.61440.85550.4287PointPWC-Net [64]Full0.05880.73790.92760.3424FLOT [37]Full0.05200.73200.92700.3570FlowStep3D [27]Full0.04550.81620.96140.2165OursFull0.04030.85670.96350.1976KITTIICP [4]Self0.51810.06690.16670.8712Ego-motion [53]Self0.41540.22090.37210.8096PointPWC-Net [64]Self0.25490.23790.49570.6863FlowStep3D [27]Self0.10210.70800.83940.2456OursSelf0.07630.78560.89210.1849FlowNet3D [30]Full0.17670.37380.66770.5271HPLFlowNet [18]Full0.11690.47830.77760.4103PointPWC-Net [64]Full0.06940.72810.88840.2648FLOT [37]Full0.05600.75500.90800.2420FlowStep3D [27]Full0.05460.80510.92540.1492OursFull0.04810.84910.94480.1228Table 1. Evaluation results on the FlyingThings3D [32] and KITTI [33] datasets. “Self" denotes training under the self-supervised settingwhile “Full" denotes under the supervised setting. All methods are only trained on FlyingThings3D [32]. In default setting, we set theiteration number to 7 and 14 for FlyingThings3D [32] and KITTI [33], respectively.• Acc3DR: the percentage of points which statisfied||Fpred − Fgt||2 < 0.1m or ||Fpred − Fgt||2/Fgt <10%• Outliers3D: the percentage of points which statisfied||Fpred − Fgt||2 > 0.3m or ||Fpred − Fgt||2/Fgt >10%.As shown in Tab. 1, we have achieved state-of-the-art resultsfor both self-supervised and supervised setting. Specifically,we performs better than the other methods by a large marginon the KITTI dataset, which demonstrates the superiority ofour formulation in Eq. (7).5.2. Point Cloud RegistrationDataset We follow previous methods [69] to evaluate onthe ModelNet40 [65] dataset which contains 40 object cat-egories of CAD models. Each CAD model is sampled into2048 points and normalized into a unit sphere as in [69].In order to generate training pairs with ground-truth rigidtransformations, we follow RPMNet [69] to first synthetictransformation and then transform an existing source pointcloud to the target point cloud. The transformation is syn-thesized by randomly sampling the rotation vector betweenMethodMAE(R)MAE(t)Error(R)Error(t)ICP [4]13.7190.13227.2500.280RPM [17]9.7710.09219.5510.212FGR [71]19.2660.09030.8390.192PointNetLK [1]15.9310.14229.7250.297DCP-v2 [62]6.3800.08312.6070.169TEASER++ [66]4.1380.0207.1440.041RPMNet [69]0.8930.00871.7120.01882210我们的方法 0 . 845 0 . 0077 1 . 665 0 . 0160表2. 在ModelNet40[65]上使用高斯噪声的部分可见设置的评估结果。0[0°, 45°]和[−0.5,0.5]之间的旋转矩阵和平移向量。为了模拟部分到部分的配准条件,根据随机方向[69]进一步删除30%的点。我们使用前20个类别进行训练和验证,剩下的20个类别进行评估。0训练细节与FlyingThings3D相比,ModelNet40是一个相对较小规模的数据集,因此我们在单个阶段中训练点云配准模型,每个GPU的批量大小为8,并在Eq.(7)和Eq.(8)之间交替进行7次。学习率也采用与上述相同的衰减策略,并进行衰减。00.16960.27440.59670.56710.12770.18090.61270.742830.06600.75130.88770.18930.04600.807200.95170.247670.05700.79790.91540.15660.04030.85670.96350.1976100.05210.82450.92990.13850.04090.85320.96310.2035140.04810.84910.94480.12280.04290.83680.96060.222782220PC1和PC20PC1+GT和PC20PC1+Pred和PC20误差0图5. KITTI [33]场景流数据集上的定性结果。0迭代 KITTI FlyingThings3D0EPE3D ↓ Acc3DS ↑ AccDR ↑ Outliers3D ↓ EPE3D ↓ Acc3DS ↑ AccDR ↑ Outliers3D ↓0表3. 迭代的割离研究。0每100个epoch保存一次模型,总共训练600个epoch。0定量比较定量比较遵循先前的工作,并使用各向同性度量误差(R)和误差(t) [69]以及各向异性度量MAE(R)和MAE(t) [62]:0• 误差(R): arcos tr(R gt − 1 R pred − 1)0• 误差(t): || R − 1 gt t − t gt || 20• MAE(R): || Euler(R gt) − Euler(R pred) || 1 •MAE(t): || R − 1 gt t − t gt || 1 .0如表2所示,我们的方法在各向同性度量和各向异性度量上优于先前的方法。05.3. 割离研究0为了进一步分析每个组件的有效性,我们对3D流估计进行了割离研究,并评估了我们模型的不同变体。0点对点优化第一个问题是在经过循环正则化后是否需要进一步更新变换,即是否可以去除点对点优化公式(7),只保留循环正则化公式(8)。为了回答这个问题,我们在训练和推断中都排除了公式(7),结果如表4的第一行所示,明显比较差。82230输入0迭代=00迭代=10迭代=30迭代=90迭代=140图6. 不同迭代的可视化。随着迭代次数的增加,来自KITTI [33]场景流数据集的两个点云逐渐对齐在一起。0点对点优化 EPE3D ↓ Acc3DS ↑ AccDR ↑ Outliers3D ↓0W/O 0 . 0514 0 . 7612 0 . 9308 0 . 2880 仅特征 0 . 0445 0 . 8327 0 .9614 0 . 2318 Gumbel Softmax 0 . 0451
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功