没有合适的资源?快使用搜索试试~ 我知道了~
42400Fractual Projection Forest: 快速且可解释的点云分类器0Hanxiao Tan AI Group,TU Dortmund0hanxiao.tan@tu-dortmund.de0摘要0点云在自动驾驶和机器人领域发挥着越来越重要的作用。尽管当前的点云分类模型已经取得了令人满意的准确性,但大部分模型通过在分组-局部-全局框架上堆叠复杂模块来换取轻微的性能提升,这导致处理时间延长和解释能力下降。在这项工作中,我们提出了一种名为Fractual ProjectionForest的新流程,利用分形特征使传统机器学习模型在分类任务上能够与DNNs竞争性能。尽管准确性稍有降低,FPF更快、更易解释和更易扩展。我们希望FPF能为社区提供一种新的点云分类视角。我们的代码可在https://github.com/Explain3D/FracProjForest上找到。01. 引言0近年来,点云因其在自动驾驶[3, 18]和机器人[27,14]等领域的潜力而受到广泛关注。在深度学习(DL)中,由于不规则性,传统的卷积核不能直接应用于点云,早期的解决方案主要包括体素化[23]和多视图方法[35]。随着PointNet[28]的提出,3D识别开启了一个新时期,即直接使用原始点云学习特征并进行预测。在此基础上,提出了大量的深度架构[29, 40, 17, 22,43],取得了更高的准确性。然而,大多数最新的点云模型无法摆脱通用术语[22],即:0g i = A (Φ( f i,j ) | j = 1 , ∙ ∙ ∙ , K ) (1)0其中 A , Φ 和 f是全局对称函数(各种汇集层),局部特征提取器(MLP [28,29],CNN [17],残差[22],注意力[43]等)和局部分组函数(MSG[29],图[40]等)分别。0最近的模型经常在这些组件上引入更复杂的技巧以换取轻微的准确性提升。尽管这些“军备竞赛”在准确性上取得了轻微的提升,但副作用也不可忽视。首先,过多的模块负担导致运行时间延长。这可以从PointMLP[22]的定量比较中得出,即使是最新和最简洁的MLP架构与PointNet相比,处理时间也增加了一倍。更重要的是,这些带有复杂模块的模型缺乏可解释性[9]。人类无法信任不可解释的模型,尤其是在自动驾驶或医学领域,预测结果对人类生命至关重要[10]。尽管最近的一些研究通过展示事后方法来解释点云模型的决策基础[7,37],但解释性作为一个新兴领域仍处于初级阶段,许多现有研究表明目前广泛使用的解释性方法可能不可靠[38, 15,11]。此外,缺乏真实标准使得事后解释性方法难以评估[47]。0除了事后方法之外,使用可解释的模型也有助于合理性[4]。一项研究表明,如果选择适当的特征,即使使用简单和可解释的模型,与黑盒模型相比,准确性也不会显著下降[30]。幸运的是,最近的事后归因研究揭示了点云的特征是稀疏的[7,37]。如果事先从点云输入中过滤掉这些特征,就可以使用简单的可解释模型实现相当的准确性。0在这项工作中,我们提出了一种通过多尺度分形窗口提取输入投影的点云分类新流程。这种方法跳出了向深度神经网络(DNN)添加技巧的竞赛,并通过只牺牲少量准确性的简单模型进行分类。此外,我们的方法能够在几十秒内(包括预处理的话可能需要几分钟)使用CPU对整个ModelNet40进行训练,这对于DNN来说几乎是不可能的。此外,我们的模型提供了两种解释,即内在解释和事后解释。42410基尼不纯度和基于扰动的归因。对于后者,我们的模型允许消除整个分组特征,从而避免了原始点云中特征相关性和超出分布范围的问题[11]。此外,我们的方法更具可扩展性,可以通过手动添加适当的特征或切换模型来适应不同的分类场景。总之,我们的贡献主要总结如下:0• 我们提出了一种非深度学习流程Fractual ProjectionForest(FPF),将之前只能通过DNN解决的点云分类问题转化为传统的机器学习任务。与DNN相比,FPF更快、更可解释和更具可扩展性,同时只牺牲了少量准确性。0•我们展示了FPF的两种解释,这两种解释在DNN上都很具有挑战性。0本文的整体结构如下:第2节介绍了流行的点云模型和相应的可解释性方法。第3节详细阐述了FPF的思想和技术细节。第4节展示了所提出方法的性能和相应的解释。第5节对研究结果进行了简要总结,并提出了未来的研究方向。02. 相关工作0本节中,我们介绍了广泛应用的分类模型(2.1)和促进点云可解释性的研究(2.2)。02.1. 点云分类模型0在直接处理原始点云之前,分类任务通常有两种方式,即基于体素的方法[23, 31, 19]和基于多视图的方法[35, 6, 13,5]。基于体素的方法致力于对不规则点云进行空间有序化,从而使用3D卷积核提取点之间的相邻特征。基于体素的方法作为解决不规则性的早期解决方案,由于包含额外的预处理(如体素化[23]),处理速度有限。多视图的方法将点云投影到平面上,将其微小地降维为二维图像。有趣的是,在最近的研究中[6],一个简单的6视图方法通过在训练过程中引入技巧,实现了几乎达到最先进准确性的结果。随着PointNet[28]的提出,直接处理原始点云的一系列分类方法开始出现。PointNet建立了一个后续研究的流程,即公式1。基于原始点云的后续模型大多数都是基于PointNet的[29, 40, 17,43]。0这个流程中的每个模块都附加了更复杂的技巧,以实现更高的准确性。然而,所有上述方法都是基于神经网络的黑盒模型,人们很难理解它们的决策原则[24]。02.2. 点云可解释性研究0事后解释性方法:目前关于点云模型的解释性研究还很少。[7]和[37]分别通过基于梯度和基于替代模型的解释性方法[24]来解释点云的决策归因。对于模型内在归因的研究,[46]通过过滤和逐步翻转关键点观察预测置信度的变化。然而,所有上述方法都是事后归因,由于解释性或扰动方法的缺陷,得到的解释可能存在偏见[38, 15,11]。可解释模型:在深度学习广泛应用之前,点云分类通常是通过手动提取特征和简单的机器学习模型(如LDA[45]或马尔可夫网络[25])来完成的。然而,由于性能有限,这些方法很快被新出现的点云深度神经网络取代。为了解决可解释性问题,最近的一项研究[1]提出了一种基于原型的模型,通过在潜在空间中对特征进行聚类来完成分类。尽管他们的方法的决策基础是直观的,但它的可扩展性较差,我们认为使用神经网络提取潜在特征加剧了不透明性。此外,PointHop[44]也是一种非深度学习方法,它利用随机森林学习由称为PointHopUnit提取的点的相邻特征。然而,尽管PointHop提高了模型的可解释性,但点之间的几何特征对人类来说仍然难以理解。此外,PointHop在真实扫描数据集上的性能显著下降。03. 方法0在本节中,我们介绍FPF的机制和结构。第3.1节概述了基于分形的特征的操作,第3.2节详细介绍了FPF的内部结构,第3.3节说明了FPF如何生成可靠的解释。03.1. 分形特征0这项工作受到Hausdorff维度[8]的启发,其公式可以在方程S1中看到。Hausdorff维度反映了几何的平滑程度,并且可以通过计算不同尺寸的分形总数并应用指数拟合来估计。类似地,我们使用多尺寸分形窗口手动创建点云的特征。图1说明了分形特征的概述。通过逐渐增加窗口大小,点集被采样成不同的子组。然后,我们从每个子组中提取相关的统计信息,这些信息根据子组中的点的分布而变化。例如,从两个点集(第一列)中,我们可以分别提取与n和p¯相关的特征序列[4, 2, 2],[1, 2, 2](顶部)和[4, 4, 4],[1, 1,1](底部)。请注意,我们只列出了窗口的总数(n)和平均包含的点数(p¯),这里将讨论其他信息。where α is a smoothing coefficient that flattens the changesin the sampling window sizes. We chose exponential be-cause the points sampled by the equidistant window size areprone to alter drastically when i is small and almost constantwhen i is large (see Sec. S1.3 for analysis). The return ofthe sampling is which window each point belongs to, andtwo sampling results are obtained, S1N and S2N 2a single window, and the corresponding window indexes.To obtain the parameters, we employ Gaussian fits to ap-proximate the distribution of the sampled points in corre-sponding projection space. This feature is based on the as-sumption that most objects are normalized to be located inthe middle of the spatial coordinates. We estimate the pa-rameters using one- and two-dimensional Gaussian models,respectively. The former contains two parameters, i.e., themean (µ) and the variation (σ), and the latter consists offive, i.e., the means along each axis µx and µy, the standarddeviations σx and σy, and an amplitude bias α. Fig. S2shows an example of a Gaussian feature that captures thedistribution differences across classes and windows sizes.Local features: Two local features are involved: (aver-aged) distributions of the points within all windows as wellas several specified windows. For the former, we calculatethe extremes, means and variances of the points within eachwindow separately and obtain their global averages. Forthe latter, we selectively monitor the windows of particu-lar indexes and compute the internal distributions of points.However, since the total number of windows obtained af-ter sampling with different sizes is inconsistent, we specifya proportion m ∈ [0, 1) and select |S| × m (|S| is totalnumber of windows) as the monitored window. We recordthe number, mean and variance of the points in this windowas features. In addition, multiple monitored targets can beappended.Feature concatenation: We simply concatenate globaland local features as final inputs. Note that our featuresare arbitrarily expandable, and different statistical featurescan be explored for specific datasets to achieve optimal ac-curacu.Others: FPF incorporates other modules to further en-hance performance.Rotation augmentation: Rotating objects R times to cre-ate R new training data is an augmentation method pro-posed in [28, 29]. In this work, we set the angle of eachrotation to 2π/R, i.e., the object is rotated by an identicalangle R times, and the R + 1st time returns to the originalone. There are two types of rotation augmentation availablein FPF: feature and quantity augmentation. We first performthe same tabular feature extraction on the rotated object toobtain R additional feature series.In feature augmenta-tion, we horizontally concatenate R sequences (R+1 timeslengthened), which provides each training data with ad-ditional rotation information and enhances rotation invari-ance. The quantity augmentation is similar as in [28, 29].The rotated features are vertically aggregated to the datasetas new training data, which increases the amount of trainingdata to mitigate overfitting.Attribution filtering: In decision making, there are fea-tures that contain either positive or negative attributions.Positive attributions reinforce the predictions while nega-42420随着窗口大小的增加,点集被采样成不同的子组。然后,我们从每个子组中提取相关的统计信息,这些信息根据子组中的点的分布而变化。例如,从两个点集(第一列)中,我们可以分别提取与n和p¯相关的特征序列[4, 2, 2],[1, 2,2](顶部)和[4, 4, 4],[1, 1,1](底部)。请注意,我们只列出了窗口的总数(n)和平均包含的点数(p¯),这里将讨论其他信息。03.2. 模型架构0图2显示了FPF的架构。FPF由以下组件组成:投影、分形采样、特征生成和连接以及预测模块。将输入视为具有N个点的D维点云实例:{xi | i = 1, ..., N} ∈RN×D,并以最简单的情况进行说明,即N = 3。投影:受到多视图分类方法[35, 42,6]的启发,我们首先在每个轴(x、y和z)和平面(xy、xz和yz)上投影点云。随后,获得三个1-D和2-D投影,它们分别表示为:P1 ∈ RN和P2 ∈RN2。分形采样:根据3.1中的机制,我们对六个投影的每个进行分形采样。让多尺度采样的数量为I。采样窗口大小的起始值是整个空间值范围的一半,即Wmax = 102 {max xi - min xi},对于ModelNet40[41]来说是可扩展的,为1。第i次采样的窗口大小为:0Wi = e(-i × α) (2)0对于P1和P2,分别是P1和P2的记录。请注意,那些没有采样到任何点的窗口的记录被标记为0,这也是重要的特征。特征生成和连接:与原始点云相比,表格化特征的优势在于在解释属性时更直观。因此,我们以表格特征的形式从点云中提取统计数据作为训练数据。与其他DNN模型类似,FPF需要全局和局部特征进行预测。全局特征:涉及三个全局特征:非零分形窗口的数量:Gn = |{s ∈ S1,S2 | s > 0}|,所有采样窗口的基本统计数据和高斯参数。基本统计数据包括窗口内点的最大值和最小值(非零值)。42430在训练原始模型之后,我们根据解释(见第3.3节)获得每个特征的归因,并过滤掉那些归因低于阈值THp的特征,以进一步提高准确性。03.3.可解释性0FPF提供了两种基于扰动的解释:基尼重要性和分组特征消融。基尼重要性是计算所有树的所有节点的减少不纯度的平均值[21]。这种方法的优点是调用简单,可以直接通过sklearn中的RF.featureimportances在几毫秒内获得。不纯度归因的一个缺点是对连续或高基数变量的偏向[26]。另一个问题是在包含高度相关特征的数据集中存在偏差,这导致被分配更大权重的次优预测变量[33,32]。分组特征消融是一种解决上述问题的替代方法。传统的特征消融方法存在着分布问题[11],即当某些特征被消融时,由其余特征组成的数据位于原始数据集的分布之外,导致不可靠的预测分析。因此,我们首先根据类型对特征进行分组,即属于1-D投影或采样窗口大小1的特征。随后,我们消融所有属于同一类型t的特征,以避免任何信息残留。根据[11]提出的方法,我们重新训练消融数据集,并记录整个测试集的准确性Acc'¯t。类型t中特征的归因可以表示为:0Atr t ∝ Acc - Acc'¯t (3)0其中Acc是原始模型在未消融测试集上的准确性。分组特征消融减轻了解释中的偏差,但会延长处理时间,因为模型必须重新训练多次,次数等于特征组的数量。04.实验0在本节中,我们通过大量实验报告了FPF的定量结果。第4.1节介绍了FPF在多个数据集上的性能,第4.2节提供了特征重要性的可视化解释。在我们的实验中,我们选择了ModelNet40[41]作为主要数据集,该数据集包含9,843个CAD模型和2,468个属于40个类别的测试集。此外,我们还在ScanObjectNN [39]和ShapeNet[2]上测试了我们的方法。前者是一个包含15个类别的现实世界数据集,后者是一个包含35,708个训练集和10,261个测试集的数据集。0图1.分形特征提取的简单示例。使用不同大小的分形窗口对输入进行采样,得到依赖于输入点分布的统计序列。0具体而言,ShapeNet最初是用于3D重建,我们在实验中将其扩展到分类任务。除了用于DNN的训练时间比较外,所有计算都是在Intel(R) Core(TM) i7-4650U CPU @1.70GHzCPU上进行的。对于FPF,我们将平滑系数α设置为0.135,分形窗口数I设置为30,旋转增强数R设置为3,这是经验性的最佳效率-性能权衡。04.1.定量结果0在ModelNet40上的结果。我们将FPF与两个NN基线(FC和CNN),四个DL模型(PointNet [28],PointNet++[29],DGCNN [40]和PointMLP[22])以及一个非DL模型进行比较。所选的基于DNN的模型是代表性的,其中PointNet可以被视为深度学习的基准(Equ.1中的组件分别是最大池化、MLP和无点对点相关性)。PointNet++用多尺度分组(MSG)替换了最后一项,而DGCNN将MLP升级为动态图网络。PointMLP是点云分类的最先进模型。如表1所示,我们的非深度学习模型FPF在准确性上接近DNNs(比PointNet和PointMLP分别低4.1%和7.5%),同时大大减少了处理时间。然而,FPF在不到1秒的时间内使用CPU预测整个测试集(2,468个实例),训练时间接近1分钟。此外,通过属性过滤(经验性地将阈值设置为THp =7e-5),原始FPF在准确性和速度上得到了提升,这证明了过滤掉负面属性特征的必要性,这在神经网络中是无法实现的。与非DL模型PointHop相比,虽然FPF在准确性上稍逊,但其预测速度更快,模型大小几乎缩小了40倍。此外,我们尝试训练简单的神经网络来学习分形特征。我们分别使用从分形窗口中提取的特征训练了一个简单的FC网络和一个CNN。42440图2.FPF架构概述。给定一个点云对象,FPF首先将其分别投影到三个轴和平面上。对于每个投影,我们记录由多尺度分形窗口提取的分形特征。在假设分形窗口中的点总体服从高斯分布的情况下,我们估计高斯参数,并将其他分形窗口的统计信息连接在一起作为特征来训练随机森林。0将窗口作为NN基线(结构可以在A节中找到)。有趣的是,NN的性能不如随机森林。有趣的是,NN的性能不如随机森林,但它们的速度比其他DL方法快上千倍。一个可能性是存在更好的网络结构,可以超越随机森林,但这不仅会损害速度,还会牺牲可解释性。0ScanObjectNN上的结果。我们选择ScannObjectNN的最难变体(PB T50RS)作为训练和测试集,其中大多数对象都是不完整的,只保留表面信息。表2显示了ScanObjectNN上的定量结果。请注意,FPF具有潜在的可扩展性,可以将更合适的特征连接到不同的数据上以获得更好的性能。在这里,我们遵循ModelNet40中的手工特征,这对于ScanObjectNN可能不是最佳选择,然而,FPF的准确性超过了被认为是DNN基线的PointNet。我们将为不同的数据制定最合适的特征的方法留作未来的工作。此外,PointHop在这个数据集上表现不佳(低14%)。我们认为这是因为PointHop单元提取的局部区域特征只适用于手工制作的数据集,而不适用于像Scanob-jectNN这样的困难数据集(大多数样本只有表面信息)。FPF不存在这种限制,因为FPF的假设前提是训练集和测试集的点的分布是相似的。0ShapeNet上的结果。由于ShapeNet不是一个分类基准,我们只观察FPF在不同数据集上是否存在准确性崩溃。我们报告原始FPF的准确性为79.1,经过(经验性)过滤后的FPF的准确性为79.3。04.2. 特征重要性的解释0除了速度快之外,FPF的一个更重要的优点是可解释性。除了用传统模型如PointHop[44]来增强可解释性之外,我们根据FPF的特性提供了两种解释,即Gini重要性和分组特征消融,分别显示在图3和图4中。这两种解释在旋转的归因上是一致的,但在特征的归因上有一些分歧,并且在窗口大小的归因上有一些分布上的差异。这种差异主要源于现有解释性方法的固有缺陷。基于Gini不纯度的特征重要性倾向于将更多的归因分配给具有较大基数的特征[26],例如分形窗口大小。相反,具有较小基数的特征的重要性,例如窗口中的点统计数据,往往会被低估(见图3,第三个子图中的“Indb”)。这种解释性方法的优点是调用简单快速,可以直接在sklearn中调用,并且平均计算时间约为0.03秒。0基于分组特征消融的事后解释更加合理。特征组之间是相互独立的,并且在每次消融后基于ROAR[11]重新训练数据集,以防止分布外问题。然而,ROAR也存在争议。ROAR的特征重要性取决于重新训练模型准确性下降的幅度,而一些研究质疑解释应该忠实于原始模型还是数据[34, 36,12]。解释性方法的一个困难之处在于缺乏基本事实,探索更准确和合理的解释是潜在的研究方向。α = 1 − DoDe(4)42450模型 OA(%) mAcc(%) F1 T tr T te T avg Size0深度学习0基准FC 74.2 65.5 64.0 / 0.21 8 . 50 × 10 − 5 6.8 MB0基准CNN 81.4 75.0 74.4 / 4.22 1 . 71 × 10 − 3 4.2 MB0PointNet [28] 90.4 85.5 85.6 / 3068.07 1.22 39.8 MB0PointNet++ [29] 92.5 89.8 89.5 / 3004.10 1.20 20.1 MB0DGCNN [40] 92.7 89.6 89.7 / 968.99 0.39 6.9 MB0PointMLP w/o vot. [22] 93.8 90.2 89.9 / 2039.05 0.83 101.3 MB0非深度学习0PointHop [44] 87.3 81.5 78.9 301.03 6.91 2 . 8 × 10 − 3 3.16 GB0FPF(raw) 85.4 79.0 79.7 68.88 0.31 1 . 25 × 10 − 4 77.5 MB0FPF(fltd) 86.3 80.4 81.1 68.36 0.29 1 . 16 × 10 − 4 76.1 MB0表1. 在ModelNet40上的分类结果。T tr,T te,Tavg和Size分别是训练整个训练集的处理时间,验证整个测试集的处理时间,预测单个实例的平均时间和模型大小。FPF(fltd)和FPF(raw)分别表示带/不带属性过滤的FPF。详细的实验配置请参见附录S1.7。0模型 深度学习 非深度学习0PN PN++ DGCNN PointMLP PointHop FPF(raw) FPF(fltd)0OA(%) 68.0 77.9 78.1 85.4 54.2 68.2 68.80表2. 在ScanObjectNN(最困难的任务)的PB T 50 R S上的整体准确性比较。PN和PN++分别表示PointNet和PointNet++。04.3. 其他0在本节中,我们展示了FPF的其他结果,包括分形特征的可行性,消融研究和解释的盐度检查。0分形特征的可行性。为了进一步确认分形特征的有效性,我们使用多个分形特征训练了一棵简单的决策树(最大深度=20),观察准确性是否超过基准。我们考虑了两个基准:均匀和加权随机猜测。前者假设每个标签被猜测的概率相同,而后者根据每个类别中的数据量进行加权。如表3所示,每个分形特征都明显优于随机猜测基准。0旋转投票。旋转投票是一种通过多次旋转和预测对象来进一步提高准确性的技术,然后进行多数投票,这在几个点云模型中表现出优越的结果[20,29]。对于FPF,我们考虑两个候选项:旋转投票与/不带旋转增强(参见3.2的最后一个子部分),它们分别表示是否在训练中合并了对象的旋转信息。请注意,由于旋转特征的选择仅在属性过滤之前可能,因此我们只与原始模型进行性能比较。令人惊讶的是,旋转投票对FPF没有性能提升,如果不使用旋转增强甚至会导致准确性下降(见表S7)。我们认为原因是分形特征在旋转时发生了显著变化,这在去除旋转增强后的性能下降(见表4)中得到了证明。解决方案是在不同的旋转角度上学习更多的分形特征,然而...0消融研究。我们依次分解和消融FPF的每个模块,并记录相应的准确性。对于消融多个分形序列,我们分别计算不同大小的分形窗口的结果,并取平均值。对于旋转增强,我们简单地设置R =1。对于剩余的分形特征,我们从聚合特征中逐个删除它们。在每次消融后,我们训练一个新的随机森林模型,以避免分布外问题。结果如表4所示。每个模块的缺失都会导致准确性下降,而当使用单一大小的分形窗口时,下降更为显著。合理性检查。由于缺乏基本事实,很少有可用于评估解释合理性的指标。其中,盐度检查[38]是一个重要的指标。其基本思想是生成的解释应与模型相关,并且应观察到解释的崩溃,因为模型是随机的。由于使用了随机森林,我们几乎无法像[38]中那样修改模型的任意层。相反,我们随机选择森林中随机选择的决策树的某个百分比(从10%到100%)进行随机化。然而,直接编辑决策树的权重是具有挑战性的,因此我们通过使用随机标签重新训练所选树来随机化选择的树。为了评估解释的相似性,我们遵循[38]使用Krippendorff的α[16],其公式为:0其中 D o 和 D e 分别表示观察到的不一致性和预期的不一致性42460图3.基于基尼不纯度的内在特征重要性解释。Fractal、Rotation和Feature分别表示每个分形尺寸、旋转角度和手工特征的特征归因。在Features中,Num F、1D proj、2D proj、In db和Sampdb分别表示分数数量、1D和2D投影的统计数据和估计的高斯参数,以及所有分数和特定采样分数的统计数据。0图4. 分组特征消融的解释。0如果Krippendorff的α接近1,则两个解释高度类似,如果接近0,则它们几乎独立(负值表示反向接近)。正如图5所示,分组特征消融通过了盐度检查,随着树的随机化程度的增加,Krippendorff的α趋近于零。然而,内在特征重要性被证明是有缺陷的。尽管分形窗口特征的α值迅速受到破坏,但与旋转特征相比,减少幅度较小,而手工特征几乎没有变化。这可以归因于基于基尼不纯度的解释忽视了低基数特征,而特征之间的相关性也由于缺乏重新训练而引发问题。05. 结论0在这项工作中,我们提出了一种非深度学习的点云分类流程FPF。通过从分形窗口中提取统计特征,FPF使得传统机器学习模型能够达到与深度学习相当的性能。与DNN相比,传统模型不仅更快,更重要的是具有更好的可解释性。我们希望我们的想法能够激发更多面向可解释性的点云识别工作。0致谢。本研究得到了德国联邦教育与研究部和北莱茵-威斯特法伦州作为Lamarr机器学习和人工智能研究所(LAMARR22B)的一部分的资助。OA(%)81.985.485.885.785.585.385.9mAcc(%)75.079.279.979.479.479.279.680.4F175.379.880.380.279.979.579.981.142470随机基准线 分形特征0准确率 2.5 3.0 65.5 65.4 66.5 63.3 61.1 精确率 2.6 2.4 59.8 56.8 57.7 54.4 54.1 召回率 2.4 2.460.1 57.5 58.4 55.4 54.40表3. 分形特征可行性测试。基准线为:均匀随机猜测和加权随机猜测。从左到右的分形特征依次为:分数数量、1D投影、2D投影、内部分数分布、采样分布。0模块增强 分0( ((((( 多重分形 ( (((( 旋转增强 ( ((( 数字F � ��� � 1D投影 � ��� 2D投影 � �� 内部分数分布 ( (((( 采样分布 全部0表4.模块消融研究。从左到右,缺失的模块依次为:多重分形序列、旋转增强、分数数量、1D投影、2D投影、内部分数分布、采样分布。最后一列表示所有模块都被整合。0图5.理智性检查结果。左侧是内在特征重要性,右侧是分组特征消融。蓝色、橙色和绿色线分别表示分形窗口、旋转和手工特征。x轴和y轴分别表示随机化树的百分比和Krippendorff的α分数。42480参考文献0[1] Nicholas I Arnold,Plamen Angelov和Peter MAtkinson。改进的可解释点云分类器(xpcc)。IEEE人工智能交易,2022年。0[2] Angel X Chang,Thomas Funkhouser,LeonidasGuibas,Pat Hanrahan,Qixing Huang,Zimo Li,SilvioSavarese,Manolis Savva,Shuran Song,HaoSu等。Shapenet:一个信息丰富的3D模型库。arXiv预印本arXiv:1512.03012,2015年。0[3] Yaodong Cui,Ren Chen,Wenbo Chu,LongChen,Daxin Tian,Ying Li和DongpuCao。自动驾驶中图像和点云融合的深度学习综述。IEEE智能交通系统交易,2021年。0[4] Mengnan Du,Ninghao Liu和XiaHu。可解释机器学习的技术。ACM通信,63(1):68-77,2019年。0[5] Yifan Feng,Zizhao Zhang,Xibin Zhao,RongrongJi和YueGao。Gvcnn:用于3D形状识别的群视图卷积神经网络。在IEEE计算机视觉和模式识别会议论文集上,页码为264-272,2018年。0[6] Ankit Goyal,Hei Law,Bowei Liu,Alejandro Newell和JiaDeng。用简单有效的基线重新审视点云形状分类。在机器学习国际会议上,页码为3809-3820。PMLR,2021年。0[7] Ananya Gupta,Simon Watson和HujunYin。使用基于梯度的方法解释3D点云特征。在2020年国际神经网络联合会议上,页码为1-8。IEEE,2020年。0[8] FelixHausdorff。维度和外测度。数学年鉴,79(1):157-179,1918年。0[9] Congjie He,Meng Ma和PingWang。从人工神经网络中提取平衡解释性和准确性的规则:一项综述。神经计算,387:346-358,2020年。0[10] Robert R Hoffman,Shane T Mueller,Gary Klein和Jor- danLitman。可解释人工智能的度量:挑战与前景。arXiv预印本arXiv:1812.04608,2018年。0[11] Sara Hooker,Dumitru Erhan,Pieter-JanKindermans和BeenKim。深度神经网络解释性方法的基准。神经信息处理系统进展,32,2019年。0[12] Dominik Janzing,Lenon Minorics和PatrickBl¨obaum。可解释人工智能中的特征相关性量化:一个因果问题。在人工智能和统计学国际会议上,页码为2907-2916。PMLR,2020年。0[13] Asako Kanezaki,Yasuyuki Matsushita和YoshifumiNishida。Rotationnet:使用无监督视点的多视图联合对象分类和姿态估计。在IEEE计算机视觉和模式识别会议论文集上,页码为5010-5019,2018年。0[14] Ben Kehoe,Sachin Patil,Pieter Abbeel和Ken Gold-berg。云机器人和自动化研究综述。IEEE自动化科学与工程交易,12(2):398-409,2015年。0[15] Pieter-Jan Kindermans,Sara Hooker,Julius Adebayo,Max-imilian Alber,Kristof T Sch¨utt,Sven D¨ahne,Dumitru Er-han和Been Kim。显著性方法的(
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Android圆角进度条控件的设计与应用
- mui框架实现带侧边栏的响应式布局
- Android仿知乎横线直线进度条实现教程
- SSM选课系统实现:Spring+SpringMVC+MyBatis源码剖析
- 使用JavaScript开发的流星待办事项应用
- Google Code Jam 2015竞赛回顾与Java编程实践
- Angular 2与NW.js集成:通过Webpack和Gulp构建环境详解
- OneDayTripPlanner:数字化城市旅游活动规划助手
- TinySTM 轻量级原子操作库的详细介绍与安装指南
- 模拟PHP序列化:JavaScript实现序列化与反序列化技术
- ***进销存系统全面功能介绍与开发指南
- 掌握Clojure命名空间的正确重新加载技巧
- 免费获取VMD模态分解Matlab源代码与案例数据
- BuglyEasyToUnity最新更新优化:简化Unity开发者接入流程
- Android学生俱乐部项目任务2解析与实践
- 掌握Elixir语言构建高效分布式网络爬虫
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功