没有合适的资源?快使用搜索试试~ 我知道了~
ZZ-Net:2D点云的通用旋转等变架构
X to X. One should think of a G-action φ as a way to re-late elements of G to symmetries of X. Typically, we willsuppress the group homomorphism in the notation and writegx or g∗x for φ(g)(x). An example of a G-set is Cm actedon by the permutation group Sm. Note that Sm could acton Cm in different ways and we must specify the action todescribe a G-set. The canonical action is to permute them dimensions, but another obvious action is the trivial ac-tion given by πZ = Z for all π ∈ Sm and all Z ∈ Cm.If we have two G-sets X and Y , we say that a functionf : X → Y is (G-)equivariant if it commutes with the G-actions: f(gx) = gf(x). A special case is when the actionon Y is trivial and then we call f invariant: f(gx) = f(x).For more information on groups, symmetries and equivari-ance in general, we refer to e.g. [22].1Technical note: These two actions commute with each other and hencedefine an SO(2) × Sm-action.109760ZZ-Net:一种用于2D点云的通用旋转等变架构0Georg B¨okman a , Fredrik Kahl a , Axel Flinth a,b0bokman@chalmers.se, fredrik.kahl@chalmers.se, axel.flinth@umu.se0a Department of Electrical Engineering, Chalmers University of Technology bDepartment of Mathematics and Mathematical Statistics, Ume˚a University0摘要0本文关注的是2D点云数据的旋转等变性。我们描述了一组特定的函数,能够近似任何连续的旋转等变和排列不变函数。基于这个结果,我们提出了一种新颖的神经网络架构,用于处理2D点云,并证明了它在逼近具有这些对称性的函数方面的普适性。我们还展示了如何扩展该架构以接受一组2D-2D对应作为输入数据,同时保持类似的等变性质。实验是在立体视觉中估计本质矩阵的情况下进行的。01. 引言0在许多不同的应用领域中,如自动驾驶、增强现实和机器人技术,都需要解释和处理点云数据[18]。计算机视觉中的基本问题示例包括分类、分割和目标检测,以及多视图几何中的对应问题[34]。考虑将点云或一对点云作为输入对象,自然要求是重新排列点的顺序不会改变所讨论的对象。因此,这样的排列不应该改变点的处理方式。在设计用于点云输入的神经网络时,需要考虑这种排列对称性,通常通过具有等变性的网络层来实现。另一个可能的对称性是围绕原点旋转点云。有关旋转等变的单个点云处理任务的示例,请参见图1。我们还将考虑对点云对的旋转对称性。等变性。让我们引入一些符号并给出等变性的正式定义。给定一个群 G,我们考虑具有 G-对称性的集合(稍后将明确定义)和这些集合之间的函数。G-集是一个配备了 G -作用的集合 X,即从 G 到从 X 到 X的双射的群同态 φ。我们通常在符号中省略群同态,并写 gx 或g � x 表示 φ ( g )( x )。一个 G -集的例子是由置换群 S m作用在 C m 上的 C m。注意,S m 可以以不同的方式作用在 Cm 上,我们必须指定作用来描述一个 G -集。规范作用是对 m个维度进行排列,但另一个明显的作用是由 πZ = Z给出的平凡作用,其中 π ∈ S m,Z ∈ C m。如果我们有两个G -集 X 和 Y,我们说函数 f : X → Y 是( G-)等变的,如果它与 G -作用交换:f ( gx ) = gf ( x)。一个特殊情况是当 Y 上的作用是平凡的时,我们称 f是不变的:f ( gx ) = f ( x)。有关群、对称性和等变性的更多信息,请参考[22]等。0图1.旋转等变性的简单示例。图示了在夜空中确定北极星方向的任务。输入是在某个二维坐标系中可见星星的位置集合。点云处理器 f的旋转等变性意味着如果夜空(或观察者)旋转,确定的方向应该随之旋转。(星星的图片[2]。)0在本文中,我们关注的是群 SO (2) × S m 。SO (2)对点云的作用是围绕原点旋转所有点,而 S m的作用是对点进行排列。更具体地说,我们关注的是对排列不变但对旋转等变的函数。rotations. Let us call the set of such functions R(m).Additionally, we go further, and describe new results andneural network architectures for the case of clouds of pair ofpoints, or correspondences. In this case, we deal with func-tions that are permutation invariant, rotation equivariant toone of the clouds, and rotation invariant with respect to theother. We call this set of functions R2(m).An obvious limitation with our work is that we only dealwith SO(2)-equivariance and not higher order rotations.Still, it is an important case with many different applica-tions. For instance, in many scenarios, invariance with re-spect to rotation around one axis is the correct model. An-other example is essential matrix estimation [16], which wewill explore in Section 5.2. Note that the derivations aresimplified and the computations can be made more efficientas the group of 2D rotations is commutative, which is notthe case for SO(d) with d > 2.The main contributions of this paper are as follows. First,we describe a dense set of equivariant functions on 2D pointclouds (Theorem 2). With that set as a basis, we describe aneural network architecture for approximating the functionspace R(m) and prove its universality (Theorem 3). Wethen present how to extend that architecture to also coverR2(m) and discuss the extension’s universality properties.We test our architecture on a (toy) rotation estimation prob-lem and the estimation of essential matrices in stereo vision.1.1. Related workEquivariance for regular image grids has been studied invarious settings, ranging from classical CNNs for transla-tion invariance [14,24] to rotation and rigid transformationinvariance [42, 44, 45]. Equivariance on more general do-mains and under general groups has also been investigatedin a recent line of research. In particular there has been afocus on describing linear equivariant functions, which canbe alternated with non-linearities to obtain equivariant neu-ral network architectures [1,4,5,12,23]. Recent surveys ofthe theory include [3,15,43].There exist a number of high-performing deep learningarchitectures for 3D point cloud processing, mostly targetedfor recognition, classification and segmentation, includingmethods that do not take rotation equivariance into account[33, 54] and methods that do consider the effects of rota-tions [7, 13, 31, 37]. The approach most similar in spirit toours is [47], but while we let every point in the point cloudgather information from all others to obtain rotation invari-ant and permutation equivariant features, they use the sortedGram matrix of local neighbourhoods to obtain local rota-tion and permutation invariant features. They do not provethe universality of their approach.We focus on 2D rather than 3D. While the approachesfor the 3D case could be modified to apply to the 2D caseas well, doing so would not take advantage of the fact thatthe 2D case is simpler. Specifically, all rotations in 2D com-mute and this fact plays a crucial role in our proofs.Our work is inspired by fundamental theoretical resultsin machine learning which aim to characterize equivariantpoint cloud networks. In the seminal work of [52], all per-mutation equivariant functions were shown to belong to aparticular family of functions from which equivariant net-work architectures can be constructed. In more recent work,the theory has been further developed and additional sym-metries have been considered [20,29,30,41,50]. In [8], theauthors present a method for proving universality for ro-tation equivariant point cloud networks in 3D. Their prooftechnique is applicable to networks which allow latent fea-tures consisting of arbitrary high order tensors, such as fore.g Tensor Field Networks [37]. In contrast, our networksonly need to handle tensors of order two.While finalizing this work, we were made aware of theconcurrent papers [40,49], with an approach that is relatedto ours. In fact, Proposition 10 of [40] is similar to our The-orem 2 but for the group O(2) instead of SO(2) (in fact,they deal with a d-dimensional underlying space and thegroup O(d)). In particular, we make a more thorough de-scription and analysis of neural network architectures.From an application point-of-view, we are interested incorrespondence problems and more generally, robust fittingproblems in multiple view geometry. State-of-the-art deeplearning approaches in this context include early work suchas CNe [51] and OANet [53] but also the more recent ap-proaches ACNe [36] where attentive context normalizationis shown to improve permutation-equivariant learning andT-Net [55] which also consists of a permutation equivariantnetwork that is able to capture both global and channel-wisecontextual information. However, these methods only in-corporate permutation equivariance, which make them de-pendent on the coordinate frame of the points. We give ex-perimental comparisons to some of these approaches.Notation. Throughout the entire paper, we will iden-tify R2 with C.The group SO(2) of rotations is thennaturally identified with the unit circle S⊂C.Tokeep things simple, we understand point clouds as vectorsZ= (z0, . . . , zm−1) ∈ Cm, where m is the number ofpoints. Note that the action of SO(2) on Cm can be sim-ply written θZ, where θ ∈ S and that this can be equiv-alently read as complex multiplication or an action of therotation group. We write [m] for the set of indices from 0to m − 1. The group of permutations is denoted Sm, andfor π ∈ Sm, we let π∗Z denote the permuted version of Z,i.e., [π∗Z]i = Zπ−1(i). As in [29], we extend the latter totensors: for T ∈ (Cm)⊗2, [π∗T]ij = Tπ−1(i)π−1(j). Let usfurther denote the subgroup of permutations which fix the0-element, i.e., {π ∈ Sm | π(0) = 0} with Stab(0), whichis called the stabilizer of 0. Finally, we let τi ∈ Sm be thetransposition of i and 0.10977̸B0 : (Cm)⊗2 → (Cm)ℓ1Bi : (Cm)ℓi → (Cm)ℓi+11097802.逼近R(m)中的函数0在本节中,我们描述了我们的置换不变、旋转等变神经网络架构的理论基础。我们将连续旋转等变和置换不变函数的集合记为f:Cm→C,其中f(θπ�Z)=θf(Z)对于所有π∈Sm和θ∈S成立,其中R(m)。在整篇论文中,m是固定的。02.1.在R(m)中的函数的一个稠密集0为了了解如何设计一个逼近R(m)中函数的网络,让我们看一下DeepSet[52]或PointNet[33]的架构。简而言之,它们对于逼近置换不变函数是通用的原因是所有这样的函数都可以写成χ(�0i∈[m]ϱ(zi)),对于某个K∈N和函数ϱ:C→RK和χ:RK→C。因此,逼近R(m)中的函数的一个自然的设想是使用相同结构的网络,但让ϱ和χ是旋转等变的。不幸的是,这个简单的想法是无法成功的。0命题1.对于任意m≥5,存在函数f∈R(m)不能仅使用函数χ(�0i∈[m]ϱ(zi)),其中χ和ϱ是旋转等变的。0技术证明在补充材料的A.2节中给出。以下定理给出了一种设计思路。0定理2.函数集合的形式为0f(Z)=�0i∈[m]γ(τ�iZ)zi,(1)0其中γ是任意的连续旋转不变和Stab(0)-不变函数,是R(m)中的稠密集。0我们提醒读者,τi是0和i的置换。定理2的证明依赖于多项式的密度和对它们的代数操作,在补充材料的A.3节中可以找到。在这里,我们将集中在直观上解释它。有益的是将值(γ(τ�iZ))i∈[m]解释为缩放旋转c i θ i,其中c i∈R和θi∈S。考虑到这一点,(1)可以被解释为点云的加权质心,其中每个点在计算加权质心之前可以单独旋转。为了计算点zi的旋转不变权重γ(τ�iZ),我们可以检查整个点云,而不仅仅是zi。因此,(1)可以被解释为一个注意机制(比如,[13,19,25,36,39,46,48])-当计算“它的”权重时,zi可以关注其他所有点在02R用于旋转。0网络。然而,它并不是以任意的方式这样做:在计算γ(Z)时,由于Stab(0)-不变性,点z0起着特殊的作用,但集合(zi)i≥1被视为一个集合。在向量τ�iZ中,特殊的第一个位置被zi占据。因此,当zi计算“它的”权重时,它可以关注自己的位置zi以及其余点(zj)j≠i的位置作为一个集合。最后,需要注意的是,权重计算函数γ对所有点都是共享的。02.2.R(m)的通用架构0我们现在描述如何构建一个用于在R(m)中逼近函数的神经网络。根据定理2,我们应该设计一个对旋转和Stab(0)-置换都不变的权重单元α:Cm→C,逼近函数γ。对于旋转不变性,我们建议让网络简单地作用于张量Z�Z=(zi,zj)i,j∈[m],而不是Z-因为Z�Z对于网络的旋转是不变的,整个网络也将自动成为旋转不变的。注意,Z�Z的实部是标量积(�zi,zj�)i,j∈[m]的格拉姆矩阵,其中我们将zi视为R2中的向量。因此,这个策略与[47]有明显的联系,后者使用了局部邻域的排序格拉姆矩阵。与它们相比,我们采用了一种不同的处理Stab(0)-不变性的方法。我们遵循等变网络的一个经典设计思想-首先交替应用等变线性层和逐点非线性函数,添加一个不变化的步骤,然后应用全连接层。我们将得到的神经网络集合记为NS(m)。在以下更详细的描述中,“线性层”始终指的是带有偏置项的实线性层。NS(m)的架构构造如下(参见图2):早期层。第一层由应用Stab(0)-等变线性层组成。0到Z�Z。在这里,以及接下来的部分中,ℓj指的是第j层的通道数。然后,逐点应用非线性性ρ:C→C,即ρ(X)i=ρ(xi)。具体来说,我们使用标准的激活函数分别应用于实部和虚部。随后,应用L个Stab(0)-等变层。0在早期层中,与逐点线性性ρ:C→C交替应用。早期层的最终输出是一个多向量V∈(Cm)ℓL。不变化步骤。接下来,我们计算v=�0i ∈ [ m ]vi。注意,这将Stab(0)-等变的多向量V转换为Stab(0)-不变的多标量v。事实上,我们可以将整个ψ单元自动变为旋转等变的网络。让我们称这样的旋转等变网络集合为NC。0网络的N个3和稳定器的S。̸109790图2. NS(m)(左)和NS+(m)(右)的架构。请注意,在左侧架构中,其中一个点扮演了特殊的角色,因此突出显示。0在这里,我们可以应用任何Stab(0)-不变的功能,但为了简单起见,我们集中在求和上。最后的层。最后,对v应用了若干全连接层。0重要的是,第一个线性层将映射到多向量空间,而不是多张量。与让所有早期层处理多张量相比,这节省了大量的内存,这将是处理张量Z�Z的朴素方式。事实上,甚至可以在不明确计算Z�Z的情况下应用第一层——请参见补充材料的第C节。当实现NS(m)时,当然需要一种方式来参数化Stab(0)-等变线性层。在补充材料的第A.4节中,我们提供了这样的参数化,这主要依赖于关于置换等变线性映射的[29]中的结果。为了理解本文的其余部分,不需要了解这个构造。让我们只注意到,描述每个输入-输出通道对所需的参数数量与m无关(就像[29]中的置换不变层一样)。0为了构建R(m)的可证明普适架构,上述对γ函数的近似是不够的。我们需要添加另一个组件,即'向量单元'ψ:C→C,作用于各个点zi。这些单元使用全连接的复线性线性性质,没有偏置,并且使用复ReLU函数ρC。0ρC(z,η)=ReLU(|z|−η)z0|z|0作为非线性性。这里,η∈R+是一个可学习的参数,ReLU是实数ReLU。注意,ρC是旋转等变的。由于复线性映射也是如此,整个ψ单元自动变为旋转等变的。让我们称这样的旋转等变网络集合为NC。40利用NS(m)中的α单元和NC中的ψ单元,我们可以进行如下操作。0网络的4个N和复数的C。0现在通过构建一组旋转等变、置换不变的Ψ网络来构建NR(m)5。0Ψ(Z)=�0i ∈ [ m ] α(τ�iZ)ψ(zi)。(2)0我们的主要结果是,这个架构对于R(m)是普适的。0定理3. NR(m)对于R(m)是普适的。0证明概要。整个证明太长,无法在此处呈现,将推迟到补充材料的第A.5节。然而,我们可以概述一下。第1步:NS(m)的普适性。首先,我们证明对于任意ϵ>0,当限制在|z0|>ϵ的点云上时,NS(m)在Stab(0)和旋转不变函数集合中是稠密的。直观上,我们应用Stone-Weierstrass定理[35,7.32]来证明α可以逼近任何形式为ϕ(|z0|2,z0Z)的函数,其中ϕ是相对于第二个参数的置换不变函数。由于我们只关注|z0|≠0的情况,映射Z→(z0,z0Z)是单射的。从而我们得到了这个结论。第2步:NR(m)的普适性。第一步表明,对于任意固定的ϵ>0,可以选择α使得当|zi|>ϵ时,α(τ�iZ)≈γ(τ�iZ)。然而,由于当|zi|<ϵ时,乘积γ(τ�iZ)∙zi很小,我们仍然可以在任何地方获得很好的近似。这是添加向量单元的技术原因——当zi很小时,它可以消除任何α(τ�iZ)值过大的问题。03.通用架构的修改0尽管前一节中的架构是通用的,但在使用它们进行实验之前,我们将以多种方式对其进行修改。03.1.一个更丰富的并行架构0在NR(m)-网络中,注意到每个排列版本τ�iZ的云都会单独通过α-单元发送。直观上,最好同时计算所有权重,并在此过程中让权重值相互“通信”。实现这一点的一种简单方法是以下修改,我们将其称为NS+ (m)。NS+ (m)架构包括以下内容:(也参见图2)早期层。应用一个Sm-等变线性层0网络的网络为N,旋转为Rwould intuitively be better to calculate all weights in paral-lel, and in that process let the weight values ‘communicate’with each other. A simple way to achieve this is the follow-ing modification, which we denote NS+(m).The NS+(m) architecture consists of the following:(see also Figure 2).Early layers. Apply an Sm-equivariant linear layerB+0: (Cm)⊗2 → ((Cm)⊗2)ℓ1f(θπ∗Z, ωπ∗X) = θf(Z, X).L(Z, X) = A(Z ⊗ Z) + B(X ⊗ X),zk+1i= α+k (Zk)i · ψ+k (Zk)i,109800到Z�Z。然后,交替应用逐点非线性和Sm-等变层0B+i:((Cm)�2)ℓi→((Cm)�2)ℓi+1。0早期层的最终输出是一个多张量T∈((Cm)�2)ℓL。不变化步骤。接下来,V=(�0j∈[m]Tij)i∈[m]被计算,将Sm-等变多张量T转换为Sm-等变多向量V。晚期层。现在交替应用Sm-等变层Ci:(Cm)ℓL+i→(Cm)ℓL+i+1和逐点非线性。最终网络输出为α+(Z)∈Cm。0我们还修改了计算ψ单元的架构:我们仍然使用ρC作为非线性函数,并应用C-线性层,但是这些层是Sm-等变的,适用于整个点云Z。这样网络的最终输出就是一个向量ψ+(Z)∈Cm。这些网络的集合称为NC+。给定一个α+∈NS+(m)和一个ψ+∈NC+,我们现在通过以下方式构建一个网络Ψ+0Ψ+ (Z)=�0i∈[m] α+ (Z)i ∙ ψ+ (Z)i0让我们将这些网络的集合表示为NR+(m)。这些网络仍然是等变的,并且至少与非修改的网络一样具有表达能力。0命题4.(i)新架构具有正确的等变性,即NR + (m)�R(m)。(ii)新架构至少与非修改的架构一样具有表达能力,即NR (m)�NR + (m)。0请参见补充材料中的A.6节以获取证明。在NR+(m)中,对于每个输入-输出通道对的线性层,需要更多的参数来参数化,但可以通过使用更少的输入-输出通道对来进行补偿。至于内存需求,我们必须处理内存中的2-张量,这导致了二次成本。这比NR(m)-架构更糟糕,其内存成本仅为线性。然而,请记住,我们需要计算每个网络应用的m个值α(τ�iZ),i∈[m]。如果我们想要并行化这些计算,为了提高效率,我们需要处理m个向量,这再次导致二次内存成本。0使用NR + (m)架构而不是NR(m)架构的一个微妙但合理的原因是它允许更多的信息交换。例如,注意在计算权重α(τ�iZ)时,NR(m)-网络中的每个早期层只允许关注一个向量,这可以看作是向量权重的初步版本。在NR(m)+-架构中,还可以关注所有“初步权重向量”,即输入张量的其他列(作为一个集合)。这可以使得修改后的架构更加灵活。04.在R2 (m)中逼近函数0在我们的实验中,我们实际上考虑的是以点云对(Z,X)作为输入的任务。因此,我们假设对于每个i,点zi和xi彼此对应,这意味着我们只对两个点云的同时排列具有不变性。我们考虑的任务将是(或将被转化为)对其中一个点云具有旋转等变性,并对另一个点云具有旋转不变性。也就是说,我们需要近似函数f,使得对于每个π∈Sm和θ、ω∈S,我们有0我们将这样的函数集合表示为R 2 ( m)。我们可以使用与上述相同的思想来构建它们的架构。我们建议使用完全相同的方案,唯一的区别是α单元的第一层L依赖于Z � Z和X � X,如下所示:0其中A和B是与NR ( m )和NR ( m )+相同类型的线性层。这产生了架构NR 2 ( m )和NR + 2 (m )。在补充材料的A.7节中,我们证明了NR 2 ( m)对于整个R 2 ( m)来说并不是稠密的。然而,我们还证明了如果我们只考虑云对(Z,X),其中在X中与原点接近的点不对应于在Z中远离原点的点,我们再次获得了两个版本的普遍性。04.1. 更深的架构0我们可以轻松地组合多个权重和向量单元α k ∈ NS + ( m ), ψ k ∈ NC + ,构建一个迭代的架构。如果Z = Z 0是输入云,我们通过迭代定义新的云Z k :0i ∈ [ m ] .当云中充满异常值时,这种单元链的链式结构尤其有益。早期层的权重单元可以过滤掉这些异常值。zk+1i= α+k (Zk, Xk)i · ψ+k (Zk)i,xk+1i= β+k (Xk, Zk)i · ϕ+k (Xk)i.109810图3. ZZ单元的架构。两个云被输入到SO (2) -不变权重单元和SO(2) -等变向量单元中,然后组合成一对新的云。最好以彩色查看。0通过给异常值赋予较小的权重,可以使用权重单元来过滤掉这些异常值。然后,它们将聚集在原点附近,后续的权重单元可以安全地忽略它们。这在精神上类似于(注意力)上下文归一化[36,51]。在云对情况下,我们可以通过链接一对权重和向量单元(参见图3)来迭代构建新的云对:0这样网络的最终输出就是一对标量(F 0 ( Z, X ) , F 1 ( X, Z)),其中第一个标量对第一个云的旋转等变,对第二个云的旋转不变,反之亦然。如果我们让α k = β k 和ψ k = ϕk,我们甚至可以获得一个对于交换云对等变的网络。这是我们在实验中使用的版本。由于权重单元使用形式为Z �Z的张量作为输入,我们将这样的层称为ZZ单元。为了获得网络的旋转等变输出,我们在最终(相应的)云上求和i。这样获得的架构集合将被称为ZZ网络。04.2. 架构的局限性0尽管我们的架构被证明是通用的,但它也有其局限性。首先,它操作的是张量而不是向量,使得其内存需求与每个云中的点数呈二次关系。其次,我们架构的所有线性层都是全局性的,这可能会影响性能。缓解这些问题的一种简单方法是让权重单元α仅在计算i的权重时操作最近邻的zi,这样我们将回到一个与云大小线性相关的内存需求,并引入局部性。然而,这样的架构将不是通用的。0图4.用于旋转估计实验的一对噪声点云。为了说明目的,内点较大且为绿色。这里的异常值比率r为0.4。05. 实验0在这里,我们展示了两个实验来演示我们的网络的工作原理。有关实验的更多细节请参见补充材料的B部分。实验的代码可在github.com/georg-bn/zz-net上找到。05.1. 估计噪声点云之间的旋转0作为概念验证,我们在一个玩具问题上测试我们的模型:给定一个点对(Z, X),估计一个旋转R(Z, X),使得X = R(Z,X)Z。这个旋转通过R(θZ, ωX) = ωθR(Z,X)响应于两个点云的旋转。如果Z和X完全没有噪声,这当然是微不足道的(例如可以计算z0/x0)。为了使问题更具挑战性,我们考虑了一个同时具有内点和异常值噪声的设置。数据。我们合成生成数据。数据生成的细节在补充材料B.1中介绍。每个点云对(Z, X)包含m =100个对应关系,其中一部分比例为r的异常值。内点位于具有低级内点噪声的三角形上。图4显示了一个示例对。模型。我们测试了我们模型的两个版本:一个“广义”模型和一个“深度”模型。广义模型由一个ZZ单元组成,其中权重单元有2个早期层和3个后期层,向量单元有2个层。深度模型由三个ZZ单元组成,每个单元只有1个早期层和2个后期权重层单元,1个向量层,每个层都比广义模型小。广义单元总共有约4k个参数,而深度单元总共有约7k个参数。我们训练一个共享权重的单元,因此输出两个标量F(Z, X)和F(X,Z)。我们模型的最终输出θ(X, Z) = F(X, Z)F(Z, X) ∈C对任何一个点云的旋转都能正确响应。为了比较,我们实现了两个替代模型:PointNet和ACNe的简化版本[36],我们称之为'ACNe−'。它们分别具有34k和11k个参数。关于这些模型的详细信息在补充材料B.1中介绍。实验。我们在四个异常值比率(0.4、0.6、0.8和0.85)上测试每个模型。我们使用ℓ2损失来计算.21.87.96.84.99.99.03.34.67.04.54.90.02.24.50.11.73.90.03.21.37.02.45.75109820异常值比率r = 0.40阈值 1° 5° 10°0广义ZZ-net .42 .97 .990Deep ZZ-net .85 .99 1.00PointNet .02 .45 .780ACNe− .05 .63 .960异常值比率r = 0.80阈值 1° 5° 10°0广义ZZ-n
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功