没有合适的资源?快使用搜索试试~ 我知道了~
基于体积融合的高效对象场景表示与姿态估计
1MoreFusion:基于体积融合放大图片作者:Wada,Edgar Sugar,Stephen James,Daniel Lenton,Andrew J.戴维森戴森机器人实验室,伦敦{k.wada18,e.sucar18,slj12,djl11,a.davison}@ imperial.ac.uk摘要机器人和其他智能设备需要来自其机载视觉系统的高效的基于对象的场景表示重新识别的精确对象模型将在未识别结构的非参数重建中发挥重要作用。我们提出了一个系统,它可以估计准确的姿态,多个已知的物体接触和闭塞,从实时,具体的多视图视觉。我们的方法从单个RGB- D视图中提出3D对象姿态建议我们在2个对象数据集上通过实验验证了我们方法的准确性和鲁棒性:YCB视频,以及我们自己的具有挑战性的杂乱YCB视频。我们展示了一个实时机器人应用程序,其中机器人手臂精确有序地拆卸复杂的物体堆,我们-仅使用机载RGB-D视觉。1. 介绍机器人和其他智能设备旨在执行复杂任务,如在杂乱环境中进行精确操作,需要从其摄像头捕获信息(a) 姿态估计(b) 体融合(c)真实场景图1:MoreFusion通过体积图明确推理占用空间和自由空间,生成准确的6D对象姿态预测我们展示了系统的实时机器人抓取应用程序。它可以推理接触、物理和遮挡物体之间虽然已经证明,一些短-长期任务可以使用连接感知和动作的端到端学习模型来完成,我们相信扩展和多阶段任务可以从持续的3D场景表示中受益匪浅。即使当场景的对象元素具有已知的模型时,推断相互遮挡和接触的许多对象的配置即使使用最先进的检测器也是具有挑战性的。在本文中,我们提出了一个视觉系统,可以解决这个问题,产生一个持久的三维多目标表示实时从一个单一的移动RGB-D相机的多视图图像我们系统具有四个主要组件,如图2中突出显示的:1)2D对象检测被馈送到对象级融合以制作对象的体积占用图。2)使用RGB-D数据和周围占用网格的姿态预测网络3)基于碰撞的姿态细化通过可区分的碰撞检查联合优化多个对象的姿态4) 物体的中间体表示被信息丰富的CAD模型所取代。我们的系统充分利用深度信息和多个视图来估计相互一致的对象1454014541(b)体姿态预测周边地区信息目标当前视图RGB-D(c)基于碰撞的姿态优化更新姿态6D姿势体积图碰撞损失非目标自由(a)对象级体融合体积图口罩相机姿态深度RGB已知对象未知对象图2:我们的6D姿态估计系统。来自RGB图像的对象分割掩模被融合到体积图中,该体积图表示占用空间和自由空间(a)。该体积图与目标对象裁剪的RGB-D数据一起使用以进行初始6D姿态预测(b)。然后通过可区分的碰撞检查(c)来细化该姿态,然后将其用作CAD对准阶段的一部分以丰富体积图(d)。摆姿势当模型可以在不与其他对象相交的情况下自信地对齐时,初始粗略的体积重建被升级为精确的CAD模型拟合。这种通过遮挡和接触来推断多个物体的姿态的视觉能力使得机器人能够在杂乱的场景中进行拾取和放置规划,例如,在图1中移除障碍物以拾取目标红框。综上所述,本文的主要贡献在于:• 具有周围空间感知的姿态预测,其中预测网络接收作为对象的不可穿透空间的遮挡网格• 多目标位姿联合优化,通过可微碰撞检测对多目标场景进行评估和更新;• 融合和6D姿态作为一个实时系统的完全集成,其中对象级体积图被用于增量和精确的姿态估计。2. 相关工作基于模板的方法[15,26,12,11,13,24]是最早的姿态估计方法之一。传统上,这些方法涉及通过在离线训练阶段中从不同的视点收集对象(或3D模型)的图像来生成模板,然后在图像上扫描模板以使用距离测量来找到最佳匹配这些方法对杂波、遮挡和照明条件敏感基于稀疏特征的方法多年来一直是基于模板的方法的流行替代方案[16,21,22]。这些方法涉及从图像中提取尺度不变的兴趣点,用局部描述符(如SIFT [17]或SURF [1])描述它们,然后将它们存储在数据库中,以便稍后在测试时使用诸如RANSAC [8]的方法来获得姿态估计。这种处理流水线可以在操作任务中看到,例如MOPED [5]。随着可负担得起的RGB-D相机的增加,密集方法在对象和姿态识别中变得越来越流行[7,25,3]。这些方法涉及构建目标对象的3D点云,然后使用诸如迭代最近点(ICP)[2]的流行算法将其与存储的模型进行深度神经网络的使用现在在6D姿态估计领域中很流行。PoseCNN [29]是最早训练端到端系统直接从RGB图像预测初始6D对象姿势的作品之一,然后使用基于深 度 的 ICP 进 行 细 化 。 最 近 基 于 RGB-D 的 系 统 是PointFusion [31]和DenseFusion [28],它们分别处理两种传感器模式(RGB的CNN,PointNet [23]用于点云),然后将它们融合以提取像素级密集特征嵌入。我们的工作与这些RGB-D和基于学习的深度神经网络方法密切相关。与先前工作中的基于点云和以目标对象为中心的方法相比,我们使用具有围绕目标对象的几何信息的更结构化的体积表示来3. 更多融合我们的系统估计一组已知对象的6D姿态,给出杂乱场景的RGB-D图像。我们将6D姿态表示为齐次变换ma-p∈SE(3),并将姿态表示为p=[R|t],其中R∈SO(3)是旋转,t∈R3是平移.我们的系统,如图2所示,可以分为四个关键阶段。(1)对象级体积融合阶段,其将从对象检测产生的对象实例掩模与深度测量和相机跟踪组件组合以产生体积图(d)CAD对准周围提取可微分体素化6D姿势姿势网络目标提取相机跟踪体积融合对象检测假设占用空间无法穿越的空间14542(a) 场景(b)自我(gself)(c)其他(gother)(d)自由(gfree)(e)未知(gunknown)图3:周围的空间信息。这些图显示了红色碗的占用网格(32×32×32体素)。自由(d)和未知(e)网格用点而不是立方体来可视化。已知和未知的物体。(2)体积姿态预测阶段,其使用来自体积图的周围信息以及RGB-D掩模来产生每个对象的初始姿态预测。(3)基于碰撞的姿态细化阶段,其通过使用对象CAD模型与来自体积图的占用空间之间的可区分碰撞检查,(4)CAD对准阶段,其用包含紧凑且丰富的信息的CAD模型替换每个对象的中间表示。在下面的部分中,我们将进一步讨论每个阶段。3.1. 对象级体积融合构建体积图是我们的姿态估计系统的第一阶段,其允许系统逐渐增加关于场景的知识,直到具有关于场景中的对象姿态的置信度。对于该对象级体积融合阶段,我们构建了类似于[18,27,30]的流水线,其组合了RGB-D相机跟踪、对象检测和检测到的对象的体积映射。RGB-D摄像机跟踪由于摄像机安装在机械臂的末端,我们能够使用前向运动学和良好校准的摄像机重新确定摄像机的准确姿态。然而,为了也允许这与手持相机一起使用,我们采用稀疏SLAM框架ORB-SLAM 2[20]用于相机跟踪。与其单目前辈[19]不同,ORB-SLAM 2在度量空间中跟踪相机姿态,这对于体积映射至关重要。对象检测在之前的工作[18,30]之后,RGB图像被传递到Mask-RCNN[9],生成2D实例掩码。检测到的对象的体积映射我们使用基于八叉树的占用映射,CIMap [14],用于体积映射。通过使用八叉树结构,XNUMX Map可以快速地从查询点中检索体素,这对于从深度测量更新占用值和在使用时检查占用值都是至关重要的。流水线的后期(姿态预测和细化)组件我们为每个检测到的对象(包括未知(背景)对象)构建此体积图。为了跟踪已经初始化的对象,我们使用当前帧中检测到的掩码的交集和先前工作之后的渲染掩码当前重建[18,30]。对于已经初始化的对象,我们将新的深度测量融合到该对象的体积图,并且当移动相机时发现新对象时,初始化新的体积图。该对象级重建使得能够在通过姿态估计进行模型对准之前使用对象的体积表示作为中间表示。3.2. 体姿态预测我们的系统检索周围的信息,从体积地图,将周围的目标对象的区域的空间意识到姿势预测。在本节中,我们将介绍如何在姿态预测中表示和使用此周围信息。3.2.1占据网格作为周围信息用于姿态预测的每个目标对象(〇m)携带其自己的体积占用网格。 构成该网格的体素可以处于以下状态之一:(1)来 自 目 标 对 象 重 构 的 由对象本身(gself)占据的空间. (2)由周围物体重建的其他物体所占据的空间(3)通过深度测量确定的自由空间(gfre e)。(4)由于遮挡和传感器范围限制,未通过标测观察到的未知空间(g未知)(图3)。理想情况下,周围信息的边界框应该覆盖目标对象的整个区域,它是闭塞的。这意味着边界框的大小应该根据目标对象的大小而变化。由于我们需要使用固定的体素维度进行网络预测(例如,32×32×32),我们使用不同的体素大小为每个对象计算的对象模型大小(对角线的边界框除以体素尺寸)。14543(a) 2D特征提取(b)逐点编码(c)3D特征提取(d)逐点预测Masked RGB 2D功能遮罩点云图4:网络架构,其使用目标对象的掩蔽的RGB-D及其周围信息作为占用网格来执行姿态预测。3.2.2姿态预测网络架构每个对象的初始6D姿态通过深度神经网络(在图4中总结)进行预测,该网络接受§3.2.1中描述的占用网格信息和掩蔽的RGB-D图像。建筑可以分类-分为4个核心部分:(1)从ResNet的RGB提取2D特征;(2)RGB特征和点云的逐点编码;(3)逐点特征的体素化,然后是3D-CNN;(4)从2D和3D特征进行逐点姿态预测。从RGB提取2D特征即使在深度测量可用时,RGB图像仍然可以携带用于精确姿态预测的虚拟传感器信息。由于RGB图像中的颜色和纹理细节,这可以是用于高度纹理和不对称对象的姿态预测的特别强的信号。在[28,31]之后,我们使用ResNet18 [10]和上采样层[32]从掩码图像中提取RGB特征。虽然两种先前的方法[28,31]都使用了带有边界框的对象的裁剪图像,但我们使用了掩码图像,这使得网络对背景外观的变化保持不变,并且还鼓励它专注于使用ocu网格检索周围信息RGB特征和点云的逐点编码类似于[28],RGB特征和提取的点云点(使用目标对象掩码)都通过几个完全连接的层进行编码,以产生点云。网格(体素尺寸:32)具有2-步幅卷积以具有分层特征(体素维度:16、8)。该流水线中的一个重要设计选择是在体素化之前执行2D特征提取,而不是直接将3D特征提取应用于原始RGB像素值的体素网格。虽然3D CNN和2D CNN在处理RGB-D输入时具有类似的行为,但与2D图像不同,很难在高分辨率网格上使用3D CNN,并且由于深度图像中的传感器噪声,体素化网格可能比RGB图像具有更多的缺失点。从2D-3D特征进行逐点姿态预测为了将2D和3D特征结合起来进行姿态预测,我们使用三线性插值从3D特征网格中提取对应于逐点2D特征的这些3D和2D特征被连接为用于姿势预测的逐点特征向量,我们从中预测姿势和置信度,如[28]所示。3.2.3训练姿势预测网络训练损失对于逐点姿势预测,我们遵循DenseFusion[28]的训练损失,这是PoseCNN [29]的模型对齐损失的扩展版本。对于每个逐像素预测,该损失计算用地面实况和预测姿态(姿态损失)变换的对象模型的对应点的平均距离。令[R|t]begroundtruthpose,[R]i|是姿态的第i个逐点预测,并且pq∈ X是采样的点对象模型。该姿态损失被公式化为:明智的功能,然后连接。体素化和3D-CNN处理从这一点来看-1Li=|X|Σ||(RpqQ+t)−(Ripq(i)||.(一)智慧的特征,我们建立一个特征网格(具有相同的尺寸,作为占用网格),其将与从体积融合提取的占用网格组合。级联体素网格由3D-CNN处理以提取降低体素维度对于对称对象,其对于对象模型中的对应性具有模糊性,变换点的最近邻被用作对应性(对称姿态损失):L=1μmin||(Rp+t)−(Rp′+t)||.(二)并增加通道尺寸。我们处理原始的我|X|QQpq ′ ∈Xiqi16✕ 16✕168✕ 8✕ 8无法穿越的空间6D姿势其他免费3D-CNN指数MLP取向MLP翻译MLP信心Argmax(置信度)场景要素网格3D要素逐点编码器逐点特征点提取3D-CNN体素化逐点特征逐点编码器ResNet18编码器14544QM˜˜nM你我我姿态预测的置信度以无监督的方式用这些姿态损失进行训练。设N是逐像素预测的数量,ci是第i个预测置信度。最终训练损失L被公式化为:L=1<$(Lc−λlog(c)),(3)我其中λ是正则化缩放因子(我们使用λ=0的情况。015后[28])。对称姿态丢失中的局部最小值尽管对称姿态丢失被设计为使用最近邻搜索来处理对称对象,但我们发现,与标准姿态丢失相比,这种图5b示出了对称姿态损失具有非凸形物体的局部最小值的问题对于这个问题,我们引入了标准姿势损失的热身阶段(例如,1个时期)。这种带预热的训练策略允许网络首先针对姿态预测进行优化,而不存在局部最小值问题,尽管忽略对称性,然后考虑对称性进行优化,这为复杂形状对称对象的姿态估计提供了更好的结果(图5c)。(a)场景(b)对称姿态损失(c)损失预热图5:避免损失预热的局部最小值。我们的损失热身(c)给出了更好的姿态估计复杂形状(例如,非凸的)对称对象,其中对称姿态损失(b)倾向于局部最小值。3.3. 基于碰撞的姿态优化在上一节中,我们展示了如何将基于图像的对象检测、RGB-D数据和体积对于联合优化,我们引入了可微碰撞检查,包括对象CAD模型的占用体素化由于两者都是可微的,它允许我们使用梯度下降优化对象姿态,并在GPU上优化批处理操作。§3.2.2中提到的特征向量的平均体素化使用了使用点的特征向量,并且相对于特征向量。相反,占用体素化需要相对于点是可区分的。这意味着占用网格中的每个体素的值必须是点的函数,其已经通过估计的对象姿态进行了变换。设pq为点,s为体素大小,l为体素的原点(即,体素网格的左下角)。我们可以将点转换为体素坐标:uq=(pq− l)/s。(四)对于每个体素vk,我们计算相对于该点的距离δδqk=||uq−vk||.(五)我们基于与距最近点的距离成比例来决定占用值,从而导致第k个体素的占用值〇k被计算为:δk= min(δt,min(δqk))(6)Q其中δt是距离阈值。针对目标对象的占用体素化该可区分的占用体素化从对象模型和假设的对象姿态给出占用网格。对于目标对象om,从其CAD模型p q采样的点用假设姿态(Rm)进行变换|tm):pT=Rmxq+tm,由此得出占有率值为com-推。从CAD模型中均匀采样点(包括内部部分),并给出了目标对象G目标的假设发生网格。类似地,我们用周围的物体来执行这种体素化。与目标对象体素化不同,周围对象在体素坐标中被体素化tr得到:uo=(po−lo)/so,其中lo是可转换的cy估计附近物体的形状,以使每个物体来自网络前向传递的姿势预测。这可以给出良好的初始姿态估计,但不一定是彼此紧密接触的对象的相互一致的估计集合。在本节中,我们将介绍一个测试时姿态细化模块,它可以联合优化多个对象的姿态。目标对象的网格原点,并且S0是其体素大小。这gives the hypothesized occupancy grids of surrounding ob-jects of the target object: gnontarget.碰撞检查的相交丢失占用体素化给出目标g目标(场景中的第m个对象)和周围环境的假设占用空间14545nM我M嗯嗯嗯Nmm嗯嗯嗯对象g非目标。 周围的办公室的占用网格-这给出了N(N−1)个姿态损失:Li(1≤ i ≤ N(N −1))。在体素坐标(中心,体素大小)中构建目标对象并与元素最大值聚合:g非目标=最大g非目标。(八)我们计算有多少姿势损失低于阈值(Lt):M=count[Li=40%),ICC的表现不如ICP,因为通过体素化进行区分(我们使用32维体素网格)。然而,两种优化的组合效果最佳,其中ICC解决离散空间中的碰撞,然后ICP更精确地对齐表面。1.00.9图10: 实时完整重建。我们的系统逐渐增加了关于现场的知识,用于最终重建(c)的三维融合(a)和增量CAD对准(b)。周围物体的姿态假设(如:钻孔,黄色框)被用来细化姿态预测,以执行严重遮挡对象(例如,红框)(d)-(f)。0.80.20.40.6对象的可见性0.81.05. 结论我们已经展示了对可能被严重遮挡和/或紧密遮挡的对象的图9:杂乱YCB-视频上的姿态细化结果,其中所提出的迭代碰撞检查(ICC)给出了与ICP组合的最佳姿态估计。4.4. 完整系统演示我们通过两个演示来展示我们的完整系统More-Fusion的能力:场景重建,其中系统检测场景中的每个已知对象并对准预构建对象模型(图10所示);以及其次,机器人拾取和放置任务,其中机器人被请求从杂乱场景中拾取目标对象,智能地移除干扰对象以接近目标对象(图8所示)。在杂乱的场景中与其他物体接触。我们的实时和增量式位姿估计系统建立了一个对象级地图,描述了场景中对象的完整几何形状,这使得机器人能够操纵复杂堆中的对象,具有智能的对象分解和定向放置。我们相信,在使用已知的对象模型来为困难、混乱的场景创建持久模型方面,还有很长的路要走。未来的一个关键方向是将物理推理引入我们的优化框架。致谢本文的研究得到了Dyson Technology Ltd.的支持。初始状态移动干扰项对象拾取目标对象无细化+ICP+ICC+ICC+ICP(d)其他事项(e)(f)第(1)款Scene2ADD的AUC场景114549引用[1] H.贝,A.埃斯,T. Tuytelaars和L.范古尔SURF:加速强大的功能。计算机视觉与图像理解(CVIU),110(3):346-359,2008。2[2] P. Besl 和 N. 麦 凯 一 种 三 维 物 体 的 配 准 方 法 。 IEEETransactions on Pattern Analysis and Machine Intelligence(PAMI),14(2):239-256,1992. 二、七[3] E. Brachmann,A. Krull,F. Michel,S. Gumhold,J.Shotton,and C.罗瑟学习6D物体姿态估计使用三维物体坐标。欧洲计算机视觉会议(ECCV),2014年。2[4] B. Calli、黑冠草A.辛格A. Walsman,P Srinivasa S.和,Abbeel,和A.M.美元. ycb对象和模型集:操纵研究的共同基准。在国际先进机器人会议(ICAR),第510-517页,2015中。6[5] Alvaro Collet , Manuel Martinez , and Siddhartha SSrinivasa.助力车框架:用于操作的对象识别和姿态估计 。 InternationalJournalofRoboticsResearch(IJRR),30(10):1284- 1306,2011. 2[6] Erwin Coumans等子弹物理学图书馆。开源:子弹物理学org,2013. 6[7] B. Drost,M. Ulrich,N. Navab和S.伊利克全局建模,局部匹配:高效且鲁棒的3D对象识别。IEEE计算机视觉与模式识别会议,2010年。2[8] M. A. Fischler和R. C.波尔斯随机样本同意:一个范例模型 拟 合 与 应 用 程 序 的 图 像 分 析 和 自 动 制 图 。Communications of the ACM,24(6):381-395,1981.2[9] K. 他,G. Gkioxari,P. Doll a'r 和R. 娘娘腔。 面具r-cnn。在2017年国际计算机视觉会议(ICCV)的会议记录中3[10] K.他,X。Zhang,S. Ren和J. Sun.用于图像识别的深度残 差 学 习 。 IEEE Conference on Computer Vision andPattern Recognition(CVPR),2016年。4[11] S. 欣 特 施 托 伊 塞 尔 角 Cagniart , S.Ilic , P.Sturm ,N.Navab、P. Fua和V.莱珀蒂用于实时检测无纹理物体的梯度响应图IEEE Transactions on Pattern Analysis andMachine Intelligence(PAMI),2012年。2[12] S. Hinterstoisser,S.霍尔泽角Cagniart,S. Ilic,K. Kono-lidge,N. Navab和V.莱珀蒂 多模态模板用于严重杂乱场景中无纹理目标的实时检测。在2011年的国际计算机视觉会议(ICCV)上。2[13] S. 欣 特 施 托 伊 塞 尔 河 谷 Lepetit , S.Ilic , S.Holzer ,G.Bradski,K.Konolige和N.纳瓦布基于模型的训练,检测和严重杂乱场景中无纹理3D对象的姿态估计。2012年亚洲计算机视觉会议(ACCV)论文集。2[14] 作 者 : Kai M. Wurm , Maren Bennewitz , CyrillStachniss,and Wolfram Burgard. MapMap:一个基于八叉树的高效概率3D映射框架。《奥维·罗格斯机器人》,2013年。3[15] 作者:Daniel P.作者声明:William J.使用haus比较图像dorff 距 离 IEEE Transactions on Pattern Analysis andMachine Intelligence(PAMI),15(9):850-863,1993。2[16] D.洛局部特征视图聚类在三维物体识别中的应用。IEEE计算机视觉和模式识别会议(CVPR),2001年。2[17] D. G.洛从尺度不变的关键点中提取独特的图像特征。International Journal of Computer Vision(IJCV),60(2):91-110,2004. 2[18] J. McCormac,R. Clark,M. Bloesch,A. J. Davison和S.罗伊特内格Fusion++:体积对象级猛击。在2018年3D视觉国际会议(3DV)上。3[19] R. Mu r-Artal和J. DTar do's。ORB-SLAM:测试和映射可识别的特征。在机器人多视图几何研讨会,2014。3[20] R.Mu r-Artal和J. D. 塔尔多。ORB-SLAM 2:用于单眼 、 立 体 和 RGB-D 相 机 的 开 源 IEEE Transactions onRobotics(T-RO),33(5):1255-1262,2017。3[21] D. Nister和H.斯图文纽斯使用词汇树的可扩展识别。IEEE计算机视觉与模式识别会议,2006年。2[22] J. Philbin,O. Chum,M. Isard,J. Sivic,and A.齐瑟曼。具有大词汇量和快速空间匹配的对象检索。IEEE计算机视觉与模式识别会议论文集(CVPR),2007年。2[23] Charles R Qi, Hao Su ,Kaichun Mo, and Leonidas JGuibas.Pointnet:点集深度学习,用于3D分类和分割。在IEEE计算机视觉和模式识别会议(CVPR)中,第652-660页2[24] Reyes Rios-Cabrera和Tinne Tuytelaars。用于3D对象检测的区分性训练模板:一种实时可扩展的方法。在国际计算机视觉会议(ICCV)的会议记录中,2013年。2[25] J. 肖顿湾格洛克角Zach,S.Izadi,A.Criminisi,以及A.菲茨吉本RGB-D图像中用于相机重新定位的场景坐标回 归森 林。在IEEE计算 机视 觉和模 式识 别会议(CVPR)的会议中,2013年。2[26] 卡斯滕·斯蒂格用于遮挡、杂波和光照不变目标识别的相似性度量。在联合模式识别研讨会,2001年。2[27] N. Sünderhauf,T. T. Pham,Y. 拉提夫,M。 米尔福德和我 里德有意义的地图与面向对象的语义映射。IEEE/RSJ智能机器人与系统会议(IROS),2017年。3[28] Chen Wang,Danfei Xu,Yuke Zhu,Roberto Mart´ın-Mart´ın , CewuLu , LiFei-Fei , andSilvioSavarese.DenseFusion:通过迭代密集融合进行6D对象姿态估计。IEEE计算机视觉和模式识别会议,2019年。二、四、五、六[29] Yu Xiang,Tanner Schmidt,Venkatraman Narayanan,Dieter Fox. PoseCNN:一种卷积神经网络,用于在杂乱场景中进行6D对象姿态估计。在机器人学进展中:科学与系统(RSS),2018年。 二、四、六14550[30] Binbin Xu,Wenbin Li,Dimos Tzoumanikas,MichaelBloesch,Andrew Davison,and Stefan Leutenegger.融合中期:基于八叉树的对象级多实例动态slam。IEEE机器人与自动化国际会议(ICRA),2019年。3[31] Danfei Xu,Dragomir Anguelov,and Ashesh Jain.点融合:用于3D包围盒估计的深度传感器融合。在IEEE计算机视觉和模式识别会议(CVPR)上,2018年。二、四[32] Hengshuang Zhao , Jianping Shi , Xiaojuan Qi ,Xiaogang Wang,and Jiaya Jia.金字塔场景解析网络。在IEEE计算机视觉和模式识别会议(CVPR)上,2017年。4
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 十种常见电感线圈电感量计算公式详解
- 军用车辆:CAN总线的集成与优势
- CAN总线在汽车智能换档系统中的作用与实现
- CAN总线数据超载问题及解决策略
- 汽车车身系统CAN总线设计与应用
- SAP企业需求深度剖析:财务会计与供应链的关键流程与改进策略
- CAN总线在发动机电控系统中的通信设计实践
- Spring与iBATIS整合:快速开发与比较分析
- CAN总线驱动的整车管理系统硬件设计详解
- CAN总线通讯智能节点设计与实现
- DSP实现电动汽车CAN总线通讯技术
- CAN协议网关设计:自动位速率检测与互连
- Xcode免证书调试iPad程序开发指南
- 分布式数据库查询优化算法探讨
- Win7安装VC++6.0完全指南:解决兼容性与Office冲突
- MFC实现学生信息管理系统:登录与数据库操作
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功