没有合适的资源?快使用搜索试试~ 我知道了~
120845基于神经微分流Shanlin Sun,Kun Han,Deying Kong,Hao Tang,Xiangyi Yan,Xiaohui Xie加州大学欧文分校{shanlins,khan7,deyingk,htang6,xiangyy4,xhx} @ uci.edu摘要深度隐式函数(DIF)表示具有通过深度神经网络学习的连续符号距离函数的3D几何形状。最近,已经提出了基于DIF的方法来同时处理形状重建和密集点对应,通过学习DIF建模的形状模板来捕获同一类形状之间的语义关系。这些方法在重建3D形状和推断对应关系方面提供了很大的灵活性和准确性。然而,与基于网格的模板匹配方法不同,从这些方法建立的点对应不内在地保持形状的拓扑。这限制了它们在3D几何形状上的应用,其中存在基础拓扑结构并且是重要的,例如医学图像中的解剖结构。 在本文中,我们提出 了 一 个一 种 新 的 模 型 , 称 为 神 经 元 同 构 流(NDF),用于学习深度隐式形状模板,将形状表示为模板的条件同构变形,保持形状拓扑结构。通过由神经常微分方程(NODE)块组成的自动解码器实现几何变形,该块逐步将形状映射到隐式模板。我们进行了广泛的实验上的几个医学图像器官分割数据集,以评估NDF重建和对齐形状的有效性。NDF在准确性和质量方面始终实现最先进的器官形状重建和配准结果。源代码可在https://github上公开获取。com/Siwensun/Neural_Numorphic_Flow--NDF。1. 介绍3D几何表示是计算机视觉中许多下游任务的基础,例如3D模型理解,重建和匹配。特别是,形状表示对于许多图1.我们的模型通过神经元形态流在形状实例和学习模板之间来回变形,以可逆和渐进的方式。形状表面上的颜色显示对应关系,边缘显示拓扑结构。医学图像应用,如器官分割[10,44,45,51,53,56,57],医学图像重建[52,54,55],形状异常检测和手术导航。gation [31,43].最近,深度隐式函数(DIF)已经成为一种有效且高效的3D对象建模工具[12,36,40,42,50]。与传统的体素网格、点云、多边形网格等表示方法相比,基于DIF的三维表示方法具有结构紧凑、表达能力强等优点然而,DIF确实有一个很大的缺点-它很难在两个形状之间建立对应关系,这与传统的该缺点限制了DIF在形状分析中的应用,尤其是在许多医学图像应用中,其中能够映射和比较120846形状通常是必需的。已经提出了许多方法来解决DIF的限制深度隐式模板(Deep Implicit Templates)[59] 和DIF-Net(变形隐式字段),建立在DeepSDF[40]上,将DIF公式化为模板深度隐式函数的条件变形,并使用空间扭曲模块来显式地对条件变形进行建模并推断逐点变换。[32]通过向BAE-Net [11]引入逆隐式函数,从语义部分嵌入中学习密集的3D形状对应然而,上述方法的共同缺点是由这些方法建模的条件变形(例如,DIT中的LSTM)对形状的拓扑结构是不可知的。在两个形状共享相同拓扑的情况下,这将是有问题的,我们希望变形后拓扑保持不变。属于这一类的应用包括人体的3D形状建模,医学图像中的解剖结构,以及具有固定拓扑结构的其他对象。此外,考虑到可用于训练的解剖形状的数量很少,如果没有利用形状先验,则将学习的变形推广到不可见的数据是具有挑战性的在这项工作中,我们提出了一个新的配方DIF称为神经元同构流(NDF)表示3D形状。与DIT和DIF-Net类似,NDF将形状建模为模板DIF的条件变形。但与DIT不同的是,条件变形是内同构的,从而确保所得到 的 变 形 是 拓 扑 保 持 的 。 NDF 也 不 同 于 MifasNet[23],它可以保持拓扑,但需要预定义的固定拓扑,因为它的形状是由网格建模的。我们的主要贡献总结如下:• 我们引入可逆NDF来匹配形状到它的隐式模板。它可以对齐点云或网格,而不牺牲精度,同时保证拓扑保留。• 我们设计了一个准时变速度场来学习基于神经常微分方程的同构流,使我们能够以渐进和时间可逆的方式对形状变形进行建模。• 我们在多个器官数据集上测试了NDF,并证明它在现有和新形状上都能获得最先进的形状在形状配准上,NDF生成一个或几个数量级的不愉快的脸。2. 相关作品深度隐函数。传统的隐式函数是在网格空间中定义的,并提取显式形状曲面,(a) 火车(b) 重建(c) 点对应图2. NDF概述-(a):我们联合训练变形代码ci、变形模块D和深度sdf表示T。p是采样的3D位置,p′是模板空间中p的变形位置我们从连续的3D空间采样点,但是我们在这里绘制网格仅用于说明;(b):假设我们已经优化了ci,以重建看不见的形状,我们将网格点输入到我们的模型中,并且经由行进立方体(MC)模型输出获得重建的网格;(c):如在等式中的点对应的说明。十三岁从它的零级集合中移除深隐函数是传统隐函数在连续三维空间中表示形状的扩展,表现出了很强的表示能力。DeepSDF [40]是表示连续SDF的自动解码器模型的示例许多作品都是在此基础上发展起来的,其中[6,28,46]试图通过以局部区域为单位对SDF进行建模来描绘更精细的结构。此外,DualSDF [25]设计了双重途径(原始和准确),以使用VAD框架表示SDF,C-DeepSDF [18]旨在通过课程学习改进培训策略。Occupational Network [36]代表了深层隐式函数的另一个分支,该函数通过对3D点进行分类来构建实体网格,120847FFF不D∈3K×→×→我 我我联系我们是否包含在网格中。Occupational Flow [39]在形状表示方面遵循Occupational Network的类似思想,但将其扩展到4D,在时间和空间上具有连续的矢量场。点对应和形状配准。有几种方法可以实现点对应,例如模板学习[23,27,29,33,49],初等表示,基于网格的模板在表示人体、人脸和手等相似形状时非常流行,其中模板拓扑是固定的,因此它们不能处理拓扑变化。基于元素的方法只能捕获结构级特征,因为它们旨在用简单的元素描述复杂的形状。DIF-Net[15]和DIT [59]是典型的基于变形场的方法,DIT可以生成更平滑的变形,因为它应用LSTM进行变形。我们的工作可以看作是基于变形场的方法,但我们的变形场是拓扑保持的和可逆的。超纯变换一个逆同态是一个可逆映射,其中向前和向后变换是光滑的。它广泛应用于非刚性配准和形状分析。模型的复杂性和计算性使得它很难与深度学习解决方案相结合。[17]是第一篇通过CPAB变换[20]将同构图像变换构建为深度分类模型的论文。在医学配准问题中,人们通常假设速度场是固定的,并定义在网格空间中[2]。许多文献[3,4,13,14,30]采用尺度平方法[1]对定常速度场进行快速积分。最近,随着神经常微分方程(NODE)求解器的强大功能[8,9],有效地优化神经网络流成为可能。Occupancy Flow [39]基于Occupany Network,通过对时间和空间连续的矢量场进行建模,学习具有隐式对应的4D重建。神经网格流[24]专注于通过条件连续同构流从图像或点云生成流形网格。3. 方法我们通过NDF的深度隐式函数表示遵循深度隐式模板(DIT)[59]的公式化,其将编码形状DeepSDF [40]分解为单个形状DeepSDF和条件空间扭曲函数。我们的工作描绘了这个空间扭曲功能作为一个条件的拓扑结构下,保留的纯流。在本节中,我们首先回顾了深度隐式模板,然后介绍我们提出的条件空间变形。3.1. Deep Implicit Templates深度隐式模板与DeepSDF相同,表示具有连续带符号距离场(SDF)的3D形状Xi. 给定一个随机的3D点p和长度为k的变形代码ci,输出该点F(p,ci)=s,其中p∈R,ci∈ R,s∈R(1)在训练期间,每个形状代码与一个训练形状 Xi配对。在推理过程中,通过优化得到新形状对应的变形代码。底层形状表面被隐式地表示为的零水平集表面,例如,使用Marching Cubes [34]获得。与潜码c的物理意义不明确的DeepSDF不同T DF(p,ci)=T(D(p,ci))(2)其中:R3RkR3是条件空间变形模块,其将形状Xi的p的坐标映射到给定变形代码ci的规范位置p′,并且本质上是对隐式template. 通过这种设计,它建立了学习模板和每个形状实例之间的点对应关系,在此基础上,实现了一个类别内所有形状的对应关系。3.2. 神经元同构流非对称流我们打算在每个形状对象和模板形状之间建立密集点对应,并使用不同的同构流来保持期望的几何拓扑。设Φi(p,t):R3[0,1]R3描述了3D点(p)在时间间隔[0,1]期间的连续轨迹,其中起点和终点分别位于形状Xi和模板形状的SDF中。 设vi(p,t):R3[0,1]R3定义了三维点在时间区间[0,1]上相对于形状Xi的速度场。形状为Xi的微分流Φi是如下的常微分方程(ODE)的初值问题(IVP)的解:nΦi(p,t)= v(Φ(p,t),t)s. t.Φ(p,0)= p(3)普雷特其中pR3是形状X1的SDF上的3D位置。因此,以形状Xi的变形代码为条件的非纯变形模块由下式给出D(p,ci)=Φi(p,1)(4)120848··×→Kt ii ii∫t−我D不DΣ ΣΣ我我 我[k,k+1]我 我KKKK{−}具有拓扑保持性的流如果速度场vi(,)是全局Lipschitz连续的,则IVP的解存在并且在区间[0,1]内是唯一的,这意味着任何两个ODE轨迹不结构一致性。同构流是可逆的,因此逆流R3 [0,1]从模板形状到形状Xi的R3可以通过求解以下ODE来获得:速度场由以下公式决定v(Φ(p,t),t)=vx(t)·vk(Φ(p,t))(7)k=0如等式1所示。7,准时变速度场基本上是关于时间t的阶跃函数。通过对vi(·,·)进行积分,我们可以进一步确定不同的纯流∂Ψi (p, t)= −v (Ψ (p, t), t)s.t.(p,0)=p(5)KΦi(p,t)= Φi(p,K)+KKvk(Φi(p,t))dt(8)KKD−1(p,ci)=i(p,1)(6)其中,p是模板形状的SDF上的3D点,−1表示逆同纯域。到目前为止,任何形状实例与其类别的模板之间的可逆变形都可以描述为速度场的积分。条件拟时变速度场 我们的目标是学习一个神经网络,参数化的速度场捕捉密集的拓扑保持点对应的形状对象。在本节中,我们将描述我们如何设计它。我们将v表示为表示时间和空间中的速度场的神经网络,并且vi描述关于形状Xi的神经速度场,即,vi(p,t)=v(p,ci,t),其中ci是向量,控制神经速度场如何使Xi的SDF中的点变形。v_i(p,t)是速度场既依赖于时间又依赖于位置的一般表达式,这里我们称之为时变速度场,以区别于场中一点的速度仅由其位置决定的定常速度场v_i(p)。在我们的情况下,训练时变速度场可能很困难,因为与4D重建[39]具有足够的多帧训练样本不同,我们的模型只能在t=0和t=1时进行监督。在处理规则网格空间中的医学配准问题时,人们通常假设形变变换是基于一个静止的速度场,因为它可以通过缩放来有效地积分其中tk,k+1,k0,1,... K1.一、 这个方程可以用神经常微分方程(NODE)求解器求解[9]。换句话说,Φi(p,t)是接收v(p,ci,t)作为动态函数的节点块的输出。为了使条件速度场神经网络与NODE兼容在求解积分时保持条件参数(变形代码c)不变我们使用类似于[24,39]的残差MLP架构来表示速度场。对于每个形状Xi,我们按照[40]的建议初始化变形代码ci,它可以连接或乘以点特征。3.3. 培训我们采用两个模块来表示连续SDF:条件变形模块和单个形状DeepSDF。与其他自动解码器模型一样,这两个模块和变形代码c是在重建损失和正则化损失的情况下联合训练的(如图2aL=Lrec+λregLreg(9)由于形状和模板形状之间的变形以渐进的方式进行,因此我们选择使用与[18,59]相同的课程学习策略。[18]在不同的训练阶段设置不同的课程学习超参数,[59]为不同的翘曲阶段设置不同的超参数。在我们的工作中,我们将把不同时间戳的变形计入课程学习。为此,重建损失可以写为:N S和平方技术[26,37]。我们的想法是设计一个准时变速度-由多个连续的静止速度组成的场,Lrec=Lt,λtt∈Ti=1j=1.T.Φi(pj,t),si,j(10)ity字段以实现渐进变形。具体地说,我们希望前几个仿形流能够粗略地将形状实例与其模板形状对齐,而后几个仿形流在几何细节上进行微小的调整。假设这个准时变速度场由K个定常速度场组成。设vk(·):R3→R3描述形状为Xi的k阶平稳速度场,χA(·)是A的指示函数.其中T是评估时间戳的集合,N是训练形状的数量,S是一个形状的SDF样本的数量si,j是来自第i个形状的第j个样本点pj的地面实况SDF,并且定义Φi(p,t)如Eq。8. Lλt,λt是课程培训损失,其中控制公差带的宽度,λ控制硬和半硬示例的重要性评彼此的距离[19] 这可以提供双态的120849估时间戳T被设置为{0}。25,0。5,0。75,1。0}中120850NSL+∈F我··我σ2我2SS不不 S实践有关课程学习的更多详细信息,请参阅[18]。我们的正则化损失非常简洁,因为NODE求解器可以在没有显式正则化的情况下在很大程度上防止自交[19,58换句话说,我们在[24]中,作者展示了一个玩具示例来证明“regu- larfzizar的delemma”,即在训练中引入强正则化可能会导致令人不快的在我们的设置中,我们只需要约束变形场的大小以及学习的变形代码。仅模板网格顶点。至于隐式基于模板的方法,如[15,59],它们学习密集点对应,这是近似的,因为它是通过模板空间中的最近邻搜索构建的。在我们的工作中,假设我们有一个形状Xi中的3D点pi,它在形状Xj中的对应点pj可以通过(也如图所示)找到2c):pj=D−1(D(pi,ci),cj)(13)其中ci和cj是形状的优化变形代码Xi和Xj。与点对应相比,形状配准ΣΣΣ¨¨ΣΣ2不仅寻找对齐的点集,而且还寻找对齐的点集。Lreg=t∈Ti=1j=1 L0.25<$Φi(pj,t)−pj<$2+的k=1K12(十一)网格这意味着,给定源网格Ms,V和边E,目标对齐网格M是(V,E),其中0. 25是δ =0时的Huber损失。二十五的目标这种逐点正则化损失是为了防止模型学习一个过于简化的模板,而是寻找一个模板形状,它拥有一个类别中所有形状实例共享的最常见结构。3.4. 推理在推理时,在固定NDF的训练参数之后,首先应通过优化获得新形状Xi的变形代码ci。在我们的工作中,形状重建是从一个看不见的形状对象的SDF中提取零级集表面,这是由我们的模型在给定的优化变形代码的情况下预测的两个形状对象Xi和Xj之间的对应关系可以通过从Xi到模板空间的前向同构变形和从模板空间到Xj的后向同构变形来找到,其中ci和cj分别给定。学习变形代码。与DeepSDF [40]相同,形状Xi的变形代码ci是最大后验估计:c=argminl(F(p,c),s)+1c2(12)我(p,s)∈Xi其中Vt是Vs的对应点集。4. 实验数据集。NDF专注于用常见的内在拓扑重建形状,我们选择在四个医学数据集上展示我们的结果:胰腺CT[41]、多模态全心脏分割[60]、肺和肝,因为这四种类型的器官具有明确的常见拓扑,但具有合理的形状变化,这可以从学习的模板和形状实例之间的差异中学习到有关数据来源和准备的更多详细信息,请参阅补充资料。实验设置。我们进行了两种类型的实验来支持NDF的有效性。首先,我们研究了我们的基于同构流的方法在训练样本上的表示能力和在不可见形状上的重建能力。然后,我们评估两个网格(形状配准)之间的学习对应的质量形状配准的自然基线是DIT [59]和DIF-Net [15],因为我们共享相似的形状表示,基于深隐函数的语义公式。我们也与我们为训练设计的渐进重建损失不同,这里的l(,)是模型输出和地面实况之间的绝对误差。重建在学习了变形代码ci之后,形状Xi来自(p网格,ci)的零级集表面(如图2b所示),其中p网格Z3。重建网格的分辨率可以通过网格点的数目来控制。在实践中,我们对所有深度隐式函数的256个3网格点进行采样以进行比较。点对应和形状配准。在At- lasNet [23]中,可以找到对应关系的点是将我们的模型与重新构建了形状使用显式网格参数化。为了使我们的比较公平,我们基于DeepSDF的实现来构建我们的模型,并选择它作为3D形状表示的基线。4.1. 形状表示与重构我们使用倒角距离(CD)和法线一致性(NC)作为矩阵来评估各种方法的形状表示和重建的质量在这项工作的范围内,形状表示是表示给定训练变形代码的可见形状对象,形状表示是表示优化KC120851↑↓MMMCD平均值(↓)CD中位数(↓)NC平均值(↑)NC中位数(↑)模型/器官胰腺肝肺心脏胰腺肝肺心脏胰腺肝肺心脏胰腺肝肺心[23]第二十三话8.083.465.017.557.442.463.767.380.7030.8230.8240.8080.70.8290.8260.814[23]第二十三话6.052.482074.865.641.724.543.860.650.8180.7720.8240.6430.8230.7910.823[40]第四十话0.7110.5390.6690.9510.6750.5360.6610.8980.8980.8660.9280.9130.9030.8680.9290.92DIF-网络[15]4.181.581.862.233.971.251.671.830.7560.8320.8820.8380.7680.8370.8850.838[第59话]0.630.5090.7121.050.6580.5050.6930.9760.9030.870.9340.9190.9040.8730.9340.93我们0.5120.4760.6430.9930.5150.4790.6310.9250.9170.8730.9370.9230.9180.8750.9370.932表1.形状重建Sph和25是分别使用3D球体网格和25个正方形面片作为模板形状的Sph。上面显示的倒角距离结果乘以103。 意味着越高越好, 意味着越低越好。 本文用(a) 易非流形面(b)自相交图3. 令人不快的面孔-(a):如果一个面的法线方向与其相邻面的法线方向显著不同,则该面是E-NMF;(b):SI面与同一网格中的其他面相交。变形代码。因此,形状表示反映了表示方法的有效性,而形状表示反映了表示方法的可生成性.由于篇幅所限,我们仅在补充材料中报告所有数据集的完整形状表示结果一般来说,DIF-Net表现出最强的形状表示能力,但形状重建性能很差。我们认为,过拟合是由于其点采样策略,许多表面点参与训练和推理。在选项卡中。1,我们可以观察到NDF在几乎所有数据集的倒角距离和法线一致性方面都达到了最好的重建结果,与最先进的方法相比。4.2. 形状配准我们已经描述了我们如何实现形状配准的密集点对应的顶部。三点四分。在我们的形状配准实验中,源网格s基本上是模板网格,目标网格t都是形状实例。 为了使不同的方法具有可比性,我们将近似质心Voronoi图(ACVD)[47,48]应用于DIT,DIF-Net和NDF的模板网格,以使其模板网格满足相同的分辨率和相似的拓扑结构。具体来说,我们将这些模板网格重新划分为2500个顶点(簇)或5000个顶点。除了CD和NC之外,我们还设计了两个度量来评价配准结果的几何保真度:易非流形面比率(E-NMF)和自相交(SI)如图3所示,NMF是具有与其相邻面相反的法线方向但在我们的场景中,这个定义太苛刻了,因为对于肺和肝等器官因此,如果一个面的任何相邻面与其自身的法线方向之间的余弦相似度小于δ,则该面将被定义为E-NMF。当我们评估心脏和胰腺器官时,将其设置为0,肺和肝脏分别设置为-0.5和-0.8。选项卡. 2强烈支持我们的NDF可以在保持拓扑的同时密集地对齐形状上的点。无论实验设置和器官类别如何,NDF在准确性方面都取得了最好的结果。此外,对于E-NMF比率和SI比率,我们的模型在大多数情况下也优于其他方法在E-NMF比率方面,Sph在肝脏、肺和心脏方面击败了我们,代价是重建结果过于平滑。值得注意的是,与在形状表示和重建方面非常有竞争力的DIF- Net和DIT相比,由于深层几何流的特性,我们的方法在所有指标上都明显优于它们(第二节)。3.2)。总之,NDF在形状配准精度和保真度方面优于其他最先进的方法。我们还报告形状登记结果看到的形状对象的补充材料。4.3. 定性结果图1演示了NDF如何以粗略到精细的方式将形状实例变形为学习的模板,同时保留拓扑。图4示出了可以建议NDF在Tab中突出的原因的全景形状表示和配准的示例。2..从图4a中,我们可以看到DIF-Net学习的胰腺模板存在问题,即红色圆圈标记的结构没有解剖学意义。与DIF-Net和DIT使用最近邻搜索来匹配点不同,NDF是可逆的和拓扑保持的。因此,我们的形状配准结果将具有与形状重建结果相当的质量。图4a和图4B有很多120852MMMMMMMMCD均值(↓)NC均值(↑)E-NMF比值均值(↓)SI比值均值(↓)顶点模 型 /器官胰腺肝肺心脏胰腺肝肺心脏胰腺肝肺心脏胰腺肝肺心网络服务器8.083.465.017.550.7030.8230.8240.808310.3911.650586029.513.80网络256.052.482074.860.650.8180.7720.82448.442.443.373.4245002510018700248002500DIF-Net7.441.741.982.440.7360.8340.8790.84254016.863.976.14990595553642DIT0.6820.5430.7581.090.8930.8670.9280.91724.4213.627.61496.231.760我们0.530.5070.7041.060.9150.8720.9350.9220.1911.028.5825.400.8900DIF-Net10.52.061.942.420.6940.8320.8810.8382768.2745.298.125604.6178610905000DIT0.6770.5280.7361.070.8930.8680.9310.91866.62.187.0614.834611.82.060我们0.5180.490.671.020.9160.8730.9360.9230.1910.3782.6814.10200表2. 形状注册上看不见的形状-我们对齐所有看不见的形状实例的源网格的四个器官类别。对于BjasNet,s被定义为它们的显式模板网格。对于DIF-Net、DIT和我们的NDF,s被定义为重新网格化的学习模板网格。我们比较了重新划分网格后,在s中有2500个顶点的其他方法,其中包括SpanasNet Sph和SpanasNet 25。 我们还比较了DIF-Net,DIT和NDF提供的s是5000顶点后重新网格。即使在s中的顶点的数量不是2500(非常接近),我们仍然把它们与具有2500个顶点的方法进行比较。将上面显示的E-NMF比率结果乘以105(a) DIF-Net(b)DIT(c)NDF图4.定性结果比较- 对于每种方法,它们都有上面显示的四种类型的网格网格A是学习的模板网格,网格B是具有2500个顶点的重新网格化的模板网格,网格C是重建的形状,网格D是形状配准结果。我们还放大了网格D以进行更好的定性比较。Exp.CD平均值NC平均值1SV1.420.9072 QTV40.5160.9143QTV4 + CL0.510.9164QTV8 + CL0.510.9165QTV4+ CL + w/o pp0.5120.9176电视1.650.9027TV + CL1250.885表3. 形状重建中的消融研究-实验注释见第2.2节。4.4 QTV的下标是渐进重建步骤的数量。这些实验是在看不见的胰腺形状上进行的。不愉快的三角形图(3)中的局部区域,其中形状实例和模板之间的形状失真很大。相反,NDF生成的配准结果是干净的,光滑的和准确的。更多定性结果见补充材料。4.4. 消融研究我们的消融研究是在胰腺形状上开发的,以研究我们方法中三种设计的效果。在本节中,Exp.CD平均值NC平均值E-NMF平均值SI平均值1SV1.460.9061.4302QTV40.5210.914003QTV4 + CL 0.520.915004QTV8 + CL 0.5210.9152.3805QTV4+ CL + w/o pp0.5180.9161.9106电视1.650.9020.95307TV + CL 1620.88412.90.103表4. 形状配准中的消融研究-所有这些实验都是在不可见的胰腺形状上进行的,给定s具有5000个顶点。正则化我们的最终方法在表5中标记为实验5。3和Tab。4.第一章准时变速度场通过对表1、表2和表6中实验1、2、6的比较,得出了一些有益的结论。3、我们的准时变速度场在各方面都胜人一筹。时变速度场是一种自然的选择,但如果没有足够的时间信息,其可生成性将受到质疑。平稳速度场在医学图像/表面配准中有着广泛的应用,但如果假设连续速度场与时间无关,则很难得到最优配准。我们还通过比较实验4和实验8来探索渐进表示步骤的效果,我们没有观察到一些额外的改进,120853MVE图5.标签转移-LeftMost :子心脏地面实况;左中: 标签转移; MiddleRight: 波瓣地面真理;RightMost:标签转移更多的代表性步骤。图1还表明,大多数变形已经在开始阶段完成。课程学习。从课程学习中获得的改进在其他工作中也很重要[18,59]。虽然在我们的工作中,它是有益的,但不是必不可少的,正如可以在表中看到的3和Tab。4.第一章此外,当与时变速度场一起使用时,它甚至是平滑正则化。我们的观点支持了在训练深拓扑流时不需要光滑正则化项的在选项卡中。在图3和图4中,我们可以看到实验5和实验6得到了非常接近的重建精度,并且它们在形状配准中都生成了非常少的令人不快的人脸。综上所述,即使使用最基本的训练损失和训练策略,我们设计的模型在形状重建和配准方面也可以获得非常有竞争力的性能5. 应用以及局限性方面5.1. 应用NDF保留了DeepSDF的大部分优点,例如形状完成和形状插值。对于医学意义,NDF可以帮助对分割结果进行后处理,并进行合理的数据增强。我们的模型还可以帮助将标签从可见的形状转移到不可见的形状。我们从训练集中选择5个样本,并将它们的最后的标签是多数投票结果。图5示出了通过NDF转移的标签的两个示例。我们工作的目标是通过帮助建立具有密集拓扑保持点对应的器官形状数据集来促进医学成像具体来说,只要我们的模型是在一类器官形状和隐式模板网格T=(TT)被标记,相同类别的器官网格可以被对齐为Sec。3.4解释给定这样的数据集,我们可以学习一个模型来参数化形状作为SMPL [33]。5.2. 限制我们的模型专注于重建和匹配一组具有共同结构的形状,因此我们图6. 局限性-案例#1具有不同的局部结构和学习模板。案例2就是一个成功的例子。ShapeNet [7].如在图6中可以看到的,我们学习的模板具有在情况#1中不存在的结构(由红色圆圈标记),则我们的情况#1形状的形状重建和配准结果受到额外结构的负面影响。这个问题可以通过引入校正模块[15]或将形状视为单独保持拓扑或不存在的子结构组[32]据我们所知,没有医学数据集具有标注的密集点对应结构因此,我们不能评估形状配准结果的点对点误差。在未来,我们将探索我们的模型在一些合成数据上的潜力,如D-FAUST [5],我们可以用它来做点对点的分析。我们将介绍我们方法的推理运行时间确实比DiT等竞争方法更长我们的方法的主要瓶颈是神经ODE(NODE)模块,它需要重复的功能评估,以解决ODE在给定的误差容限。6. 结论本文提出了一种新的基于神经元同构流(NDF)的深度隐函数用于拓扑保持形状表示。我们的实验结果表明,明确考虑拓扑结构的保留,导致显着改善形状表示和注册,如医学图像,拓扑结构的保留往往是一个必要的要求。我们还提出了一个条件准时变的方法来建模NDF通过一个自动解码器模型consisting的多个神经ODE块,使我们能够以渐进的方式建模的形状变形。120854引用[1] Vincent Arsigny,Olivier Commowick,Xavier Pennec,and Nicholas Ayache.代数同态统计的对数欧几里德框架。医学图像计算和计算机辅助干预国际会议,第924-931页。Springer,2006年。3[2] 约翰·阿什伯恩一种快速的同构图像配准算法。神经影像,38(1):95-113,2007年。3[3] Brian B Avants,Charles L Epstein,Murray Grossman和James C Gee。具有互相关的对称同构图像配准:评估老年人和神经退行性脑的自动标记。医学图像分析,12(1):26-41,2008年。3[4] Guha Balakrishnan,Amy Zhao,Mert R Sabuncu,JohnGut-tag,and Adrian V Dalca.体素变形:一种用于可变形医学图像配准的学习IEEE Transactions on MedicalImaging,38(8):1788-1800,2019。3[5] Federica Bogo,Javier Romero,Gerard Pons-Moll,andMichael J Black.动态浮士德:登记人体运动。在IEEE计算机视觉和模式识别会议论文集,第6233-6242页,2017年。8[6] Rohan Chabra , Jan E Lenssen , Eddy Ilg , TannerSchmidt,Julian Straub,Steven Lovegrove,and RichardNewcombe.深度局部形状:学习局部sdf先验,用于详细的3d重建。在欧洲计算机视觉会议上,第608-625页。Springer,2020年。2[7] AngelXChang , ThomasFunkhouser , LeonidasGuibas,Pat Hanrahan,Qixing Huang,Zimo Li,SilvioSavarese,Manolis Savva,Shuran Song,Hao Su,et al.Shapenet:An information-rich 3d model repository. arXiv预印本arXiv:1512.03012,2015。8[8] 瑞奇·T Q. Chen,Brandon Amos,and Maximilian Nickel.学习常微分方程的神经事件函数。2021年学习表征国际会议。3[9] 瑞奇·T Q. Chen,Yulia Rubanova,Jesse Bettencourt,and David Duvenaud. 神 经 元 常 微 分 方 程 Advances inNeural Information Processing Systems,2018。三、四[10] Xuming Chen,Shanlin Sun, Narisu Bai,Kun Han ,Qianqian Liu , Shengyu Yao , Hao Tang , ChupengZhang,Zhipeng Lu,Qian Huang,et al.用于放射治疗的全身计算机断层扫描图像上的危险器官的基于深度学习的自动分割系统放射疗法和肿瘤学,160:175-184,2021。1[11] Zhiqin Chen,Kangxue Yin,Matthew Fisher,SiddharthaChaudhuri,and Hao Zhang. Bae-net:用于形状共分割的分支自动编码器。在IEEE/CVF计算机视觉国际会议论文集,第8490- 8499页2[12] 陈志勤和张浩。学习生成式形状建模的隐式字段。在IEEE/CVF计算机视觉和模式识别会议论文集,第5939-5948页1[13] Adrian V Dalca,Guha Balakrishnan,John Guttag,andMert R Sabuncu.无监督学习快速概率-tic同构配准医学图像计算和计算机辅助干预,第729-738页。Springer,2018. 3[14] Adrian V Dalca,Guha Balakrishnan,John Guttag,andMert R Sabuncu.图像和表面的概率异态配准的无监督学习医学图像分析,57:226-236,2019。3[15] 登宇,杨蛟龙,童欣。变形隐式场:用学到的密集对应建模3D形状。在IEEE/CVF计算机视觉和模式识别会议论文集,第10286-10296页三五六八[16] Theo Deprelle 、 Thibault Groueix 、 Matthew Fisher 、Vladimir G Kim、Bryan C Russell和Mathieu Aubry。学习三维 形状生成和匹 配的基本结 构。arXiv预印本arXiv:1908.04725,2019。3[17] Nicki Skafte Detlefsen , Oren Freifeld , and SørenHauberg.深层同构Transformer网络。在IEEE计算机视觉和模式识别会议论文集,第4403-4412页,2018年。3[18] Yueqi Duan , Haidong Zhu , He Wang , Li Yi , RamNevatia,and Leonidas J Guibas.课程深度欧洲计算机视觉会议,第51-67页。Springer,2020年。二、四、五、八[19] Emilien Dupont,Arnaud Doucet,and Yee Whye Teh.增强的神经节。arXiv预印本arXiv:1904.01681,2019。四、五[20] Oren Freifeld,Søren Hauberg,Kayhan Batmanghelich,and Jonn W Fisher.基于连续分段仿射速度场的变换。IEEEtransactionsonpatternanalysisandmachineintelligence,39(12):2496-2509,2017。3[21] Kyle Genova , Forrester Cole , Avneesh Sud , AaronSarna和Thomas A Funkhouser。深层结构的隐函数。2019. 3[22] Kyle Genova 、 Forrester Cole 、 Daniel Vlasic 、 AaronSarna、William T Freeman和Thomas Funkhouser。 使用结构化隐函数学习形状模板。在IEEE/CVF计算机视觉国际会议论文集,第7154-7164页,2019年。3[23] Thibault Groueix,Matthew Fisher,Vladimir G Kim,BryanCRussell,andMathieuAubry. 一个学习3D表面生成的简单在IEEE计算机视觉和模式识别会议论文集,第216-224页,2018年。二三五六[24] 库纳尔·古普塔神经网格流:通过同构流生成三维流形网格。加州大学圣地亚哥,2020年。三、四、五[25] Zekun
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功