没有合适的资源?快使用搜索试试~ 我知道了~
基于频域的高分辨率3D形状重建方法
4471基于频域Weichao Shen,Yunde Jia,YuweiWu北京理工大学计算机学院智能信息技术北京实验室,北京,100081{shenweichao,jiayunde,wuyuwei}@ bit.edu.cn摘要由于计算成本的立方增长,从图像重建高分辨率体积3D形状是具有挑战性的在本文中,我们提出了一种基于傅立叶的方法,重建一个3D形状从图像在一个2D空间预测切片在频域中根据傅里叶切片投影定理,我们引入了一个厚度映射来弥合空间域图像和频域切片之间的域间隙。厚度图是3D形状的2D空间投影,其通过一般卷积神经网络从输入图像容易地预测。频率域中的每个切片是相应厚度图的傅里叶变换。所有切片构成3D描述符,并且3D形状是描述符的逆傅立叶变换。该方法利用频域切片,将三维形状重建从三维空间转移到二维空间,大大降低了计算量。在ShapeNet数据集上的实验结果表明,与现有的重建方法相比,该方法在重建精度和计算效率上都具有竞争力。1. 介绍深度神经网络由于其从大数据中提取先验的强大能力,在3D形状重建方面取得了良好的进展[18,15,21,9,6,27,12]。然而,由于计算成本的立方增长,高分辨率的3D形状重建仍然具有挑战性。高计算要求可以通过使用有效的数据结构来降低,例如空间域中的prob [11]和八叉树[22],但这些方法通常需要更复杂的训练过程和定制的网络架构[19]。本文从频域的角度对三维形状进行了分析,提出了一种简单的方法,利用一般的二维*通讯作者卷积神经网络已证明频域中的3D重建在医学和冷冻显微镜图像处理中是有效的[26,25]。许多工作[25,24]表明,可以从频域中的一系列2D切片重建3D形状。考虑到3D形状的表面总是稀疏的,我们假设体积3D利用一组紧凑的切片可以很好地重建形状给定32 × 32× 32分辨率的3D形状的傅立叶变换,我们沿着坐标轴方向选择2D切片,即,从低频到高频。图1显示了傅里叶逆变换的结果。我们发现,重建误差降低到10%以下,只有三个切片沿每个轴方向选择。这一观察促使我们通过在频域中预测切片来设计2D空间中的3D形状重建方法。与医学图像的三维形状重建不同,其中每个切片直接从CT或MR图像计算由于空间域(图像)和频域(切片)之间的信息间隙,很难直接使用深度神经网络来为了解决这个问题,我们引入了一个中间表示,厚度图。我们的思想来源于傅立叶切片定理(或傅立叶投影切片定理),这是医学图像处理中的一个著名定理[1]。该定理提出,在频率空间中以角度θ通过3D形状的原点的切片等于2D投影的傅里叶变换,其是3D形状在相同角度θ的Radon变换。对于不经过原点的二维切片,我们推广了Fourier切片定理,证明了它们是加权二维投影的Fourier变换,而加权二维投影是经过正弦加权预处理后的三维形状2D投影和加权2D投影都反映了3D形状或加权3D形状的厚度,因此我们将其命名为厚度图。示意图见图2。Radon变换投影3D4472投影视图2IoU= 0.625 IoU = 0.829IoU = 0.93IoU =1.00图1.在频域中使用不同数量的2D切片的3D形状的重建结果。底部立方体是32×32×32三维形状的傅立叶变换。沿每个轴选择一个、两个和三个红色切片,其他灰色像素为零。最后一个是地面真相。顶部显示了相应的傅里叶逆变换结果。在每个轴向上只选择三个切片,重建精度达到93%在空间域中通过线积分将形状转换为2D空间。考虑到图像也是三维形状在空间域中的投影,图像与厚度图之间的域间隙远小于图像与切片之间的域间隙,这有利于学习具有简单网络架构的投影函数。我们利用深度神经网络来预测基于自动编码器架构的图像的厚度图,使用简单的2D卷积操作。我们的网络预测厚度图的轮廓以学习全局信息,并预测厚度图的边缘以利用局部细节。生成厚度图投影视图1投影视图2投影视图3图2.厚度贴图示例。我们展示了3D飞机模型的三个厚度图。投影视图显示在顶部。每个投影视图沿着笛卡尔坐标的不同轴相应的厚度图显示在底部。更亮的像素意味着3D形状的体积更大的网格属于平行于相应投影视图的射线。通过使用子网络融合轮廓和边缘。我们将傅立叶变换应用于厚度图,并将它们嵌入到3D空间中以获得3D形状的傅立叶变换。使用逆傅立叶变换生成最终体素3D形状。我们的网络需要一些计算资源,因为它只预测了 有 限 数 量 的 具 有 简 单 2D 卷 积 层 的 厚 度 图 。 在ShapeNet数据集上对该方法进行了验证,实验结果表明了该方法的有效性。总之,这项工作的贡献包括:• 提出了一种基于傅立叶变换的三维形状重建方法,通过在频域中预测切片,可以显著降低计算成本。• 我们引入厚度图来弥合空间域中的图像和频域中的切片之间的域间隙。深度神经网络以从输入图像生成厚度图。我们的网络通过预测厚度图的轮廓和边缘来分别学习全局和局部信息,这可以提高重建精度。2. 相关工作高分辨率三维体网格重建技术已经被广泛研究了很多年。高分辨率体积网格重建方法的内存需求已通过不同的数据自适应离散化技术解决为了进一步得到精确的重建结果,近年来提出了许多高分辨率的重建方法投影视图14473ωjωj基于深度神经网络。Tatarchenko等人 [22]提出了一种用于高分辨率3D重建的基于八叉树的深度网络他们设计了新的行动,频率空间分别。给定F(O),我们通过逆傅立叶变换得到空间中的3D形状:∫八叉树,整个网络可以在高效的八叉树空间中重建3DJohnston等人[7]减少时间复杂度O(x1,x2,x3)=Σω1,ω2,ω3F(O)(ω1,ω2,ω3)Σ(二)通过使用简单的逆离散余弦变换层代替原始的卷积解码器来降低网络的复杂性。Hane等人 [5]设计了一种分层表面预测框架,该框架通过由粗到细的策略重建高分辨率3D形状。在几个正交深度投影上执行超分辨率,Smith等人。 [19]通过对低分辨率3D形状进行上采样来重建2D空间然而,这些方法在空间中重建3D形状。在本文中,我们提出了重建一个三维形状,exp2πi(ω1x1+ω2x2+ ω3x3)/N dω1ω2ω3。如引言中所述,可以利用F(O)的切片的紧凑集合来重建体积3D形状O。参考图像在频率空间中的属性,具有低频信息的重建图像保持全局形状,高频信息增加局部细节[23]。扩展到3D形状,我们沿着从低频到高频的三个轴向方向选择一定数量的切片。然后,可以重建3D形状O通过频域中的一组紧凑的2D切片作为副3D形状可以使用几个切片来表示O=F−1 .00E [s得双曲余切值.0kn Σ,s; s;。. . ; s],(3)ω1ω2ω3ωjωj我们的方法可以显著降低计算成本。其中sk是沿轴ωj(j∈{1,2,3})的第k个切片,现有的傅立叶3D重建方法,main是为特殊输入而设计的,例如电子F−1ωj是傅里叶逆变换,E是人工显微镜图像[26]、计算机断层图像[25]和条纹照明图像[29]。Wang等人。 [26]提出了一种快速准确的基于傅立叶的迭代重建方法,该方法利用了算子的Toeplitz结构。Voropaev等人[25]导出了用于计算分层成像的基于傅立叶的重建方程。Wu等人 [29]直接从条纹照明系统设计了一个双变量3D傅立叶描述符所有这些方法都是 在 频 率 域 中 进 行 的 , 需 要 特 定 的 图 像 ( CT 和MRI),而我们的方法可以从普通的RGB或灰度图像重建出三维形状。3. 频域三维形状重建在本节中,我们提供了厚度图的严格数学背景,并介绍了频域中的3D形状重建的流水线。将2D切片嵌入到3D空间的函数。 总沿着每个轴选择的切片的数量是n+1。3.2.厚度图我们将从图像中预测2D切片sk。由于空间域中的图像和频域中的切片之间的域间隙,从RGB图像预测切片是困难的为了解决这个问题,我们引入了一个厚度图作为图像和切片之间的中间表示。这种表示法的灵感来自傅立叶切片投影定理。定理1(傅立叶切片投影定理[1])。在方向→ r处通过3D对象的傅里叶变换的原点的切片等于具有相同方向→r的对应投影图像的傅里叶变换。O在方向→r上的投影图像Pr由Radon变换给出,∫∞3.1. 频域管道改造主要Pr =O(x1,x2,x3)dr.(四)−∞我们有三个切片穿过3D的原点频域中的3D形状是傅立叶变换,形状,即,(s0,j ∈ 1,2,3). 根据傅里叶切片空间表现形式:∫投影定理,这些切片是对应投影图像的傅里叶变换0 0F(O)(ω1,ω2,ω 3)=时间复杂度为O(x1,x2,x3)sω3=F(O)(ω1,ω2,0)=F(Pω3),x1,x2,x3Σ Σ(一)s0=F(O)(ω,0,ω)=F(P0),(五)exp−2πi(ω x+ω x+ω x)/N dx x x,ω21 3ω21 12 2 3 312 30 0其中O是空间中的体积3D形状,并且F(O)是频率空间中的表示N是哪里sω1=F(O)(0,ω1,ω2)=F(Pω1),3D形状的分辨率。 XL|l=1,2,3,wj|j=1,2,3是空间坐标系的索引,∫0Pωj=时间复杂度为O(x1,x2,x3)(六)4474ωjωjωjωjωjωjωjωjJωjωjω3Jωjωjωωωjωjωjωj2D FFT插入插入插入三维傅立叶空间3D逆傅立叶变换图3.从频域图像进行3D重建的流水线。以图像为输入,我们用深度神经网络预测不同但特定投影视图的一系列厚度图。每个厚度图使用傅立叶变换生成2D傅立叶切片。所有的2D切片被插入到3D傅立叶空间中以构成3D对象的傅立叶变换使用3D傅立叶逆变换重建3D形状。Radon变换可以被认为是计算3D形状沿着某个方向的厚度,因此我们将投影图像P命名为厚度图。由于Radon变换是空间域上的积分变换,因此厚度图与图像之间的距离小于切片与图像之间的距离。因此,我们建议使用深度神经网络从图像中预测厚度图,并使用傅里叶变换从预测的厚度图中然而,傅立叶切片投影定理只支持证据当j=3时,∫k=F(O)(ω1,ω2,k)=O(x1,x2,x3)x1,x2,x3exp[−2πi(ω1x 1+ω 2x 2+kx 3)/N]dx 1x 2x 3,=FO(x1,x 2,x 3)exp(−2πikx3/N)dx 3)X3,=FO(x1,x 2,x 3)cos(−2πkx3/N)dx 3X3,-iFO(x1,x 2,x 3)sin(−2πkx3/N)dx 3X3(九)0= F(R(Pk))−iF(I(Pk))。显示了厚度图Pωj 和ω3ω3切片s0穿过3D形状的原点。 我们仍然同样,我们可以得到Eq。(7)当j = 1时,使用相同的方法需要其他切片{sk,k0}以实现更精确的并且j = 2。活泼的重建结果。 为了解决这个问题,我们推广了傅立叶切片投影定理,并提供了一种从相应的厚度图计算任何切片sk如等式1所示。(8)R(Pk)或I(Pk)是3D形状O的拉东变换,使得从图像预测Pk我们仍然称Pk为厚度图。参照定理2,所有的切片sk 可以从计算定理2.沿着轴ωj的第k个切片sk由下式给出:对应的厚度图Pk。现在,我们的任务被转换为确定精确3D重建所需的切片数量并预测厚度图sk=F(Pk)=F . R(Pk)-iF .I(Pk),(7)用深度神经网络从输入图像中提取详情见第4节和第5节。假设有一个训练好的网络N,其中R(Pk)和I(Pk)是由余弦或正弦函数加权的3D形状O的拉东变换。i是虚数单位。∫根据图像的厚度映射,利用算法1从输入图像I重建4. 厚度图预测更多的切片导致更高的准确性,但R(Pk)=I(Pk)=时间复杂度O(x1,x2,x3)cos(−2πkxj/N)dxj,X3∫O(x1,x2,x3)sin(−2πkxj/N)dxj.X32D FFT2D FFTS4475(八)更重的计算负担。让我们的模型更高效,我们介绍了一种方法来计算高频切片从相应的低频切片。4476ωjωjωjωjωjω3ωjωjωjω3ωjωjωjω3ω3ω3ω3ω3ω3ωjωj算法1:频率范围内的3D重建主要Input:Img:输入图像。N:经训练的厚度图预测网络。输出:O:重建的3D形状。1步骤1:将图像Img放入网络N中,预测一系列R(Pk)和I(Pk)。表1.在不同分辨率和不同切片数下的3D形状重建精度。“-”表示不需要检查更多切片的重建精度。ωjω j2步骤2:用R(Pk)计算厚度图Pk,I(P k)使用等式(七)、3 步骤3:计算切片sk使用等式(5)和等式(七)、步骤4:将所有切片sk插入到3D空间中wj=k处,在频率空间中生成3D形状F(O)步骤5:对F(0)应用傅里叶逆变换以使用等式(1)得到最终3D形状0(三)、6 返回重建的3D形状O。定理3. 给定沿轴ωj的第k个切片,其中j ∈ {1,2,3},k/= 0,对应的厚度图Pk记为Pk=R(Pk)+i×I(Pk).然后,高频处的切片ωj= N − k可以通过PN−k= R(Pk)− i × I(Pk)计算。i是图像单位,N是3D形状的分辨率证据 当j = 3时,厚度图P k可以记为Pk=R(Pk)+i×I(Pk)∫5. 从图像预测厚度图在本节中,我们将构建一个深度神经网络来预测输入图像的厚度图。5.1. 网络架构厚度图应该是双峰的。全局结构连续性创建3D对象的形状,局部不连续性描述纹理和细节。直接从输入图像预测厚度图将输出良好的形状,但缺乏精细的细节,因为最小化均方误差会导致图像模糊,没有锐利的边缘[19]。为了解决这个问题,我们尝试通过分别预测其轮廓和边缘来重建厚度图。轮廓表示3D形状的全局形状结构,边缘表示精细的局部细节。分别预测全局形状和精细细节,时间复杂度=O(x1,x 2,x 3)cos(−2πkx 3/N)dx 3X3∫+iO(x 1,x 2,x 3)sin(−2πkx3/N)dx 3.(十)不同的网络可以降低原始学习问题的复杂性,导致准确的结果并避免过拟合问题。X3对于PN−k,PN−k=R(PN−k)+i×I(PN−k)∫厚度图的轮廓 Sp由深度自动编码器 fsil 预 测,即,Sp=fsil(I). 编码器是一个2D卷积网络,解码器是一个2D反卷积网络。编码器由五个卷积层组成,具有组归一化[30]和ReLU [13] ac。=O(x1,x 2,x 3)cos(2πkx3/N−2πx 3)dx 3X3∫+iO(x1,x 2,x 3)sin(2πkx 3/N+2πx 3)dx 3(十一)激励全连接层将特征图转换为大小为512的向量。解码器由步长为2的h个解卷积层组成,其中h变化X3=R(P k)− i × I(P k)。同样,当j=1时,我们可以得到相同的结论,j= 2。基于定理3,我们在低频预测n+1个切片,在高频计算n+1个切片,这可以减少一半的计算成本。使用此设置,我们测试了不同分辨率和不同切片数下3D形状的重建精度高分辨率的3D形状更多的切片,以实现高精度。我们选择3个层面进行323、643、1283和2563形状重建。具有3D形状的分辨率一个S形激活函数-应用该算法以保证网络输出每个像素的发生概率。另一个深度神经网络fedge将图像作为输入,并预测厚度图的边缘图Ep,其表示厚度图的每个像素属于边缘的概率,即,Ep=fedge(I)。fedge的架构类似于fsil,除了卷积滤波器和反卷积滤波器的内核大小更小以利用局部信息。将边缘和轮廓网络的输出组合在一起,以生成具有完全一致性的深度网络fcomb的厚度图Pu的R(Pf)和I(Pf),R(P<$),I(P<$)=fcomb(I,Sp,Ep). 所有输入都是COM-切片数目决议12345320.7210.9420.987--640.7830.9320.9720.983-1280.8410.9410.9690.980-2560.7870.9130.9550.9680.97344772.... .(十六)....L=||P−P−P|.(十四)..OO预测轮廓预测厚度图Hadamard乘积=预测边缘图4.厚度图预测网络的结构。给定一幅图像,我们预测厚度图的一系列轮廓和边缘。所有这些轮廓和边缘组合在一起以预测厚度图。以通道尺寸结合在一起。fcomb是一个瓶颈网络,7个块作为编码器,h个块作为解码器,其中h随着3D形状的分辨率而变化编码器(或解码器)中的每个块由具有组归一化和ReLU激活的卷积(或解卷积)层组成最后一层的激活是一个sigmoid函数,以保证输出是占用概率。在fcomb结束时,我们可以用轮廓来掩盖输出,以避免3D形状的噪声P=P<$Sp,(12)其中,λ是Hadamard乘积,P是最终预测的厚度图。然而,这在我们的网络中不是必要的操作。整个建筑可以在我们在损失函数中加入了一个新的约束条件,以消除由约束条件引起的细节损失整个网络的最后一个损失函数是预测厚度图和地面实况之间的均方误差,Lthickness=||P−P||二、(十五)P是使用等式(1)从3D形状计算的地面实况(6)和等式(八)、在不同的预测厚度图之间不存在一致性,使得重建的3D形状可能具有低精度,而每个厚度图实现小的重建误差。为了处理这个问题,我们使用3D重建损失L0,其被定义为:在图4中。5.2. 损失函数..L =.. O−F −1..英、法(专业)你好.. 2..2引入三个损失函数来训练fsil,fedge..Σ ΣO是地面真理。 F −1和f梳. 的fSIL是通过最小化交叉来训练英、法(专业)是侦察-厚度图的预测轮廓和真实轮廓之间的熵,ΣLLsil=Psillog(Psil)+(1−Psil)log(1−Psil),(13)i=1其中,P是可以从3D地面实况计算的地面实况轮廓。f边缘的损失函数是平方平均误差be-使用预测的厚度图P构造3D形状。该损失保持重建的3D形状的全局几何形状平滑。此外,考虑到表面是稀疏的,具有值1的体素的数量比具有0的体素小得多,使得Eq. (16)容易使网络更加关注空白区域,的3D形状。因此,我们分别计算了3D形状表面和空白区域的误差。新的损失被设计为厚度图的预测边缘与地面之间真相..L=.. O−O·F −1..英、法(专业)你好.. 2,Σ..O22边缘边缘边缘||2个以上|P边..加..(1−O)·F−.....................4478..1..英、法(专业)你好..2,Σ..(1−O)。(十七)24479最后的损失函数是所有项目L最终=Lsilt+L边缘+L厚度+L0。(十八)6. 实验在本节中,我们从计算效率和重建精度两方面评估我们的重建方法。在第6.3节中,给出了该网络的存储器成本和计算时间,并与流行的高分辨率3D重建方法进行了我们在第6.4节中展示了高分辨率和低分辨率3D形状重建的重建结果。6.1. 数据集我们使用合成数据集ShapeNet [2]来评估我们的方法。ShapeNet是一个大型3D数据集,具有手动验证的类别和对齐注释。在所有55个类别中,我们选择了一个子集进行评估,即。,ShapeNet-all。ShapeNet-all由Choy等人 [4]引入,其中包含来自ShapeNet数据集的13个主要类别的大约50,000个CAD模型。使用binvox工具以多个分辨率对所有数据进行体素化[16]。6.2. 实验装置该网络使用自适应矩估计[8](Adam )进行训练,初始学习率为0。001,β1=0。9,β2=0。999 我们将学习率降低了一个因子,0的情况。每5K次迭代后,培训过程分为两个阶段。 我们首先训练fsil和fedge15个纪元。然后用最终的损失训练整个网络对于定量评估,我们计算地面真实值和预测值之间的Inter-sectionover Union(IoU)度量通常,高IoU值意味着准确的重建结果。6.3. 计算效率在本节中,我们展示了我们方法的计算效率,并将其与[22]中介绍的OGN和密集自动编码器进行了比较。我们比较了所有方法在不同分辨率下的运行时间和内存开销我们的方法是在NVidia1080 Maxwell GPU上执行的,内存为12GB。 批量大小设置为1从而所有网络都可以以最大可能的分辨率运行。表2和表3显示了最终结果。我们的方法和无LO损失的报告。在低分辨率场景下,所有模型在内存开销和迭代时间方面都具有相似的低计算开销。然而,随着分辨率的提高,OGN和我们的方法速度大大加快,消耗的成本也大大降低密集网络的内存成本增加表2.我们的方法,OGN和密集网络在不同输出分辨率下的内存成本。批量大小设置为1。(Ours + LO)是有LO损失的方法,(Ours-LO)是没有LO的方法。内存(GB)决议密集OGN [22]我们的-LOOurs +LO6430.510.360.380.4512831.600.450.541.125639.70.540.861.935123(74.28)0.881.202.51表3.我们的方法,OGN和密集网络在不同输出分辨率下的迭代时间。批量大小设置为1。(Ours + LO)是带LO损失函数的方法,(Ours-LO)是不带LO损失函数的方法.迭代时间,s决议密集OGN [22]我们的-LOOurs +LO6430.210.060.0340.04128330.630.180.130.1525633.220.640.230.47512(41.3)2.060.861.21由于密集体素网格的数量是由其立方体分辨率确定的,因此,由于所有的特征图都是2D的,我们的方法没有LO的内存成本增加,直接跟随分辨率的上升,使它实现了可比的内存成本相比,OGN。我们的方法与LO有一个大的内存,因为计算LO需要3D高分辨率的地面真相。与OGN相比,我们的网络与LO和没有LO6.4. 重建精度在本节中,我们将测试我们的方法在高分辨率256×256×256的单张图像上进行3D重建。ShapeNet-All中的三个类别(即,egory包含足够的训练样本并且具有更多的形状变化。对于每个类别,80%的数据用于训练,20%用于测试。我们将我们的方法与流行的高分辨率3D重建方法进行了比较,包括八叉树生成网络(OGN)[10]和多视图分解网络(MVD)[19]。实验结果如表4所示我们的方法实现了可比的重建精度相比,最先进的方法MVD。与MVD相比,该方法简单,不需要复杂的空间崩落过程。输出的3D形状可以很容易地用逆傅立叶变换生成。我们的方法利用傅里叶变换的部分信息,以实现重建精度和计算效率之间的平衡。为了研究这是4480图5. ShapeNet中三个类别的3D形状重建结果(中间),汽车,飞机和椅子来自输入图像(顶部)。底部是地面真相。表4. 汽车、飞机和椅子上的单图像三维重建结果,分辨率为2563。类别OGN [22]MVD [19]我们车0.7820.8070.791飞机-0.5890.581椅子-0.4330.425表5. 323版本的ShapeNet-all数据集上的单视图3D重建结果我们的方法在大多数类别上实现了最佳类别R2N2 [4]OGN [22]密集我们平面0.5130.5870.5700.597板凳0.4210.4810.4810.503内阁0.7160.7290.7470.726车0.7980.8160.8280.841椅子0.4660.4830.4810.521监测0.4680.5020.5090.530灯0.3810.3980.3710.421扬声器0.6620.6370.6500.709火器0.5440.5930.5710.487沙发0.5280.6460.6680.665表0.5130.5360.5450.543手机0.6610.7020.6980.713船只0.5130.6320.5500.612是说0.5600.5960.5900.605策略对重建精度的影响,我们引入了低分辨率重建实验来比较我们的方法与基线,在[4]中介绍的密集网络。我们以分辨率展示了ShapeNet-all数据集的所有13个类32×32×32。我们还比较了我们的方法与其他3D重建网络,包括自动编码器LSTM基于网络(R2N2)[4]和OGN [10]。表5显示所有模型的IoU结果。我们的方法在大多数类别上都取得了最好的重建结果。在所有类上都取得了令人满意的性能,说明该方法具有良好的通用性.为了定性地评估我们的方法的性能图5显示了重建结果。7. 结论本文提出了一种在频域中从图像中提取三维形状的方法。我们表明,一个3D形状可以重建一个紧凑的2D切片集在一个高的重建精度。我们利用傅里叶投影切片定理,引入二维厚度图,减少了输入图像和二维切片之间的区域间隙。建立了一个深度网络,通过利用边缘和轮廓约束从输入图像预测厚度图。该网络允许我们从输入图像单独预测厚度图的精细细节(边缘)和全局形状(轮廓)该方法利用频域切片,将三维形状重建从三维空间转移到二维空间,大大降低了计算成本。在ShapeNet数据集上的实验结果表明,该方法能够有效地获得8. 确认本 工 作 得 到 了 国 家 自 然 科 学 基 金 的 资 助 。61773062。4481引用[1] R. N. 布雷斯韦尔射电天文学中的带状积分Aus-tralianJournal of Physics,9:198,June 1956.[2]A. X. 张, T. 放克豪瑟 L. 吉巴斯 P. 汉拉汉Q. Huang,Z. Li,S. Savarese,M. Savva,S.宋,H. 苏肖湖,加-地Yi和F. Yu. ShapeNet:一个信息丰富的3D模型库。技术报告arXiv:1512.03012 [cs.GR],斯坦福大学-普林斯顿大学-芝加哥丰田技术研究所,2015年。[3] J.Chen,D. Bautembach和S.伊扎迪可扩展的实时体积表面重建。ACM Transactions on Graphics(ToG),32(4):113,2013。[4] C. B. Choy,D. Xu,J. Gwak,K. Chen和S. Savarese 3d-r2 n2:一种用于单视图和多视图3d对象重建的统一方法欧洲计算机视觉会议(ECCV),2016年。[5] C. Hane,S. Tulsiani和J. 马利克三维物体重建的层次表面预测在3D视觉(3DV),2017年国际会议上,第412-420页。IEEE,2017年。[6] L. Jiang,S. Shi,X. Qi和J. Jia. Gal:单视图3D对象重建的几何对抗损失。在欧洲计算机视觉会议(ECCV)上,2018年9月[7] A. 约翰斯顿河,巴西-地Garg,G.卡内罗岛Reid和A.vd亨格尔。用于从单个图像进行高分辨率体积重建的缩放cnn。在ICCV研讨会,2017年。[8] D. P. Kingma和J. BA. Adam:一种随机优化的方法.2015年国际学习代表大会[9] A. Kundu,Y. Li和J.M.瑞格3d-rcnn:通过渲染和比较进行实例级3d对象重建。在IEEE计算机视觉和模式识别会议(CVPR)上,2018年6月。[10] P. Labatut,J.- P. Pons和R.克里文使 用兴趣点、 de-launay三角剖分和图割的大规模场景的高效多视图重建计算机视觉,2007年。ICCV 2007年。IEEE第11届国际会议,第1-8页。IEEE,2007年。[11] Y. Li,S. Pirk,H.苏C. R. Qi和L.吉巴斯Fpnn:用于3d数据的现场探测神经网络。在NIPS,2016年。[12] Y. Liao,S. Donn和A.盖革深行军立方体:学习明确的表 面 表 示 。 在 IEEE 计 算 机 视 觉 和 模 式 识 别 会 议(CVPR),2018年6月。[13] A. L. Maas,A. Y. Hannun和A. Y. Ng.整流器非线性改进了神经网络声学模型。在Proc.icml,第30卷,第3页,2013中。[14] M. Nießne r,M. Zollh oüfer,S. Izadi和M. 斯塔明格河利 用体 素散 列 法进 行 大规 模实 时 三维 重 建。 ACMTransactions on Graphics(ToG),32(6):169,2013。[15] C. Niu,J. Li,and K.徐Im2struct:从单个rgb图像恢复3d 形状 结构 。在IEEE计算 机视 觉和模 式识 别会议(CVPR),2018年6月。[16] F. S. Nooruddin和G. Turk.使用体积技术简化和修复多边形模型IEEE可视化与计算机图形学学报,9(2):191[17] G. Riegler ,A.Osman Ulusoy 和A. 盖革 Octnet:学 习-ING深3D表示在高分辨率。在IEEE计算机视觉和模式识别会议(CVPR),2017年7月。[18] D.申角,澳-地C. Fowlkes和D.霍伊姆像素、体素和视图:单视三维物体形状预测之形状表示方法研究。在IEEE计算机视觉和模式识别会议(CVPR)上,2018年6月[19] E. 史密斯,S。Fujimoto和D.梅格用于高分辨率3D对象表示的多视图ArXiv电子印刷品,2月2018年。[20] F. Steinb rück e r,J. Sturm 和D. 克莱姆斯在中央处理器上实时绘制三维立体在ICRA,第2021-2028页,2014年。[21] X. Sun,J. Wu,X. Zhang,Z. Zhang C.,中国古猿科Zhang , T. Xue , J.B. Tenenbaum 和 W.T. 弗 里 曼 。Pix3d:单图像3D形状建模的数据集和在IEEE计算机视觉和模式识别会议(CVPR)上,2018年6月。[22] M. Tatarchenko,A. Dosovitskiy和T.布洛克斯八叉树生成网络:用于高分辨率3d输出的高效卷积架构。在IEEE国际计算机视觉会议(ICCV),2017年。[23] J·托德数字图像处理(第二版):由r. C.冈萨雷斯山口wintz,addison-wesley,1987. 503页。价格:29.95. (isbn 0-201-11026-1)。光学与激光工程,8(1):70[24]M. van Heel,B.E. 高文河Matadeen,E.诉奥尔洛娃,R. A. Finn,T. Pape,D.科恩,H.联合斯塔克河施密特M. Schatz和A.帕特沃汉单粒子电子冷冻显微镜:迈向原子分辨率。生物物理学季刊,33 4:307[25] A. Voropaev,A.米亚戈京湖Helfen和T.鲍姆巴赫计算机断层图像的直接傅里叶逆重建算法。IEEE Transactionson Image Processing,25(5):2368[26] L. Wang,Y.Shkolnisky和A.歌手. 一种基于傅立叶的冷冻电镜图像迭代三维重建方法。ArXiv电子印刷品,2013年7月。[27] N. Wang,Y. Zhang,Z. Li,Y.傅,W.刘和Y.- G.蒋Pixel2mesh:从单个rgb图像生成3d网格模型。在欧洲计算机视觉会议(ECCV),2018年9月。[28] P. - S. Wang,Y.刘玉- X.郭角Y. Sun和X.童O-cnn:基于八叉树的卷积神经网络,用于3D形状分析。ACM事务处理图表,36(4):72:1-72:11,July 2017.[29] M. . Wu和H. .舒三维曲面的双变量傅立叶描述子表示。IEEE模式分析和机器智能,20(8):858[30] Y. Wu和K.他外组归一化。在欧洲计算机视觉会议(ECCV),2018年9月。
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 黑板风格计算机毕业答辩PPT模板下载
- CodeSandbox实现ListView快速创建指南
- Node.js脚本实现WXR文件到Postgres数据库帖子导入
- 清新简约创意三角毕业论文答辩PPT模板
- DISCORD-JS-CRUD:提升 Discord 机器人开发体验
- Node.js v4.3.2版本Linux ARM64平台运行时环境发布
- SQLight:C++11编写的轻量级MySQL客户端
- 计算机专业毕业论文答辩PPT模板
- Wireshark网络抓包工具的使用与数据包解析
- Wild Match Map: JavaScript中实现通配符映射与事件绑定
- 毕业答辩利器:蝶恋花毕业设计PPT模板
- Node.js深度解析:高性能Web服务器与实时应用构建
- 掌握深度图技术:游戏开发中的绚丽应用案例
- Dart语言的HTTP扩展包功能详解
- MoonMaker: 投资组合加固神器,助力$GME投资者登月
- 计算机毕业设计答辩PPT模板下载
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功