没有合适的资源?快使用搜索试试~ 我知道了~
823824825多个微型飞行器完全自主飞行(2)估计摄像机的外部参数和人的3D位置。(3)将3D身体模型稳健地拟合到来自多个飞行相机的2D关节检测。(4)我们第一次证明,完全自主地从飞行器上捕捉人类运动是可能的。(5)我们将我们的3D姿态与从多IMU套装计算的参考数据和用于姿态估计的SIP方法进行比较[26]。虽然准确性还没有达到商业标记为基础的系统,这是一个实际的一步,解决方案,解决每一件技术在一个综合的整体。我们的代码和数据集可以在https://github.com/robot-perception-group/Aircap_Pose_Estimate.2. 相关工作无标记、多摄像头、运动捕捉的研究历史悠久.经典的方法都依赖于静态,校准,相机在实验室条件下,我们不回顾这些在这里。相反,我们专注于在户外使用移动摄像机的方法Hasler等人[9]从手持的、非同步的相机恢复人的姿势,而最近的工作假设同步[28]。这两种模型都假设存在人的个性化3D网格。这些方法还假设相机观看具有高度纹理化背景的场景,该高度纹理化背景可用于校准相机并使用标准的从运动恢复结构的方法来跟踪它们的运动。如[9],Elhayek et al.[7]可以处理不同步的相机,他们使用音频同步。它们还需要身体的3D模板。他们需要一些用户交互,以获得使用功能和光束法平差的初始相机校准然后,它们联合估计身体姿势和相机校准参数。第一次使用身体姿势进行相机校准是在[14]中,他们假设重复运动。通过使用来自不同视图的身体的相同姿势,他们有效地将身体视为3D校准对象。与我们的场景相反,在上述手持相机的工作中,人占据了图像的很大一部分在室外空中应用中,人经常远离相机,并且地面可能没有足够的纹理用于运动结构。飞行动作捕捉系统主要局限于实验室环境.在这里,车辆不需要处理风,使控制问题更容易。此外,室内环境为相机校准和跟踪提供了许多线索。例如,FlyCap 系 统 [31] 使 用 安 装 在 多 个 室 内 微 型 飞 行 器(MAV)上的RGB-D传感器[31]。他们开发了一个自动车辆控制和3D人体姿态估计系统。然而,[31]中提出的方法涉及模板扫描作为受试者需要的第一步。保持一段时间不动FlyCap还需要纹理背景来实现稳定的飞行控制。他们只在室内测试,所以不必处理风和飞行无人机接近的人,使他们在相机的视野大相比之下,Flycon系统可以在户外工作,但必须将主动LED标记佩戴在身体上。这有效地采取了传统的基于标记的摄像头的概念,使用红外传感器和反光标记,并将其扩展到飞行相机。他们的系统在户外工作,该方法利用了基于IR的 MoCap系统可用的强大而成熟的算法。就像之前的工作一样[7]该方法联合估计身体姿势和相机外参数。高度可见的标记显著简化了问题,但是需要受试者准备步骤以将IR标记放置在受试者的身体上。由于这种简化,Flycon实时运行,而我们的方法采用两阶段方法。我们执行粗略的实时3D跟踪的人在捕获过程中,然后离线,我们估计的3D姿态。这对于运动捕捉工作良好,但对于实时人机交互场景将不合适在这里,我们表明,鉴于使用深度网络进行2D人体关节位置估计的最新进展,显式LED标记是不必要的[5,8]。然而,由于对象和鸟瞰图的小的表观尺寸,这些方法导致噪声估计。最近的工作也显示了从单目数据[4,12,17,19]进行3D人体姿势估计的前景,但这些方法不使用多个相机视图。由于尺度和视角的模糊性,来自单独相机的这些3D估计不能容易地融合。在[10]中,他们将SM-PLify扩展到多个相机视图,但假设相机是固定的。OpenPose [5]还可以拍摄多个校准的相机图像并返回3D关节位置,但这种方法无法处理飞行相机的不准确校准。虽然这些方法的3D估计不能直接使用,但在我们提出的方法中,我们利用它们作为2D关节位置的噪声传感器,并展示了如何有效地融合它们以获得一致的3D姿态和形状估计。对于户外拍摄,还有其他不依赖计算机视觉的技术。商业系统,如Xsens是基于主体安装的惯性测量单元(IMU),最近的工作表明,身体姿势可以从少量的这样的单元估计[11,26]。然而,这些方法有几个局限性。受试者需要准备,受试者必须合作,传感器可以影响运动。此外,IMU会漂移,并且会受到环境中金属的显著影响几种方法结合相机[25,24]或深度传感器[32]和IMU来解决这些问题中的一些在这里,我们使用IMU方法来创建参考数据(伪地面实况),用于评估我们的纯RGB826c,tc,t溶液3. 该方法我们首先描述我们的运动捕捉硬件和在线阶段。然后,我们详细讨论了我们的系统流水线通过介绍数学符号和符号遵循的算法。管道由四个步骤组成3.1. 步骤1:MoCap系统设置和在线数据采集阶段图中的步骤1。图2显示了我们基于MAV的户外运动捕捉系统跟踪和跟踪一个人。它由一组自行设计的8旋翼微型飞行器组成(见图3步骤3)。2插图)。每架MAV都配备了一个200万像素高清摄像头、一台采用英特尔i7处理器的计算机、一个NVIDIA Jetson TX1嵌入式GPU和一个OpenPilot Revolution1飞行控制器板。我们使用飞行控制器的位置和偏航控制器以及其GPS和基于IMU的自姿态(位置和方向)估计功能。为了检测,跟踪和跟踪人,我们使用感知驱动的形成方法[21,23]。每架直升机都使用其机载GPU在其相机获取的图像上运行单镜头检测器(SSD)多框[15],以检测图像帧上的人在在线采集期间实现了104Hz的检测率。 然后,MAV共享该人的2D图像边界框位置和它们的3D自姿态估计在彼此之间无线地进行。随后,使用在每个MAV的CPU上运行的合作检测和跟踪(CDT)滤波器[21],他们在一致的世界框架(GPS框架)中估计人的质心的3D位置。使用该方法,微型飞行器也提高了他们的三维自位姿定位。CDT滤波器的一个关键特征是,它允许探测器聚焦于未来图像帧上最具信息性的感兴趣区域(ROI),从而使其在计算上注意即使虽 然 检 测 是 在 104Hz 下 获 得 的 , 但 CDT 滤 波 器 在1030Hz下运行,在标准预测和更新步骤之间交替,除了更新发生在较低的频率.在在线阶段,目标是保持人在视野中,并集中在每个MAV的相机中。附加约束包括保持与其他MAV和静态障碍物的阈值距离。为此,每个MAV在其机载CPU上运行基于模型预测控制(MPC)的形式控制器[23]MPC的目的是在遵守上述地层约束的使用附加偏航控制器(与MPC分离)实现MAV朝向受试者的定向。进一步1OpenPilot:http://www.librepilot.org/site/index.html关于CDT跟踪器和编队控制器的细节可以分别从[21]和[23]中获得。在联机阶段,所有微型飞行器都以1040Hz的频率在机上保存图像,并以10100Hz的频率保存其自身姿态估计由于摄像机是刚性安装在每个微型飞行器上的,摄像机的外势是通过一个固定的已知变换从微型飞行器的自姿态(位置和方向)获得的。在世界框架中。3.2. 步骤2:2D感兴趣区域和MAV自姿态细化在该步骤中,我们离线运行步骤1的CDT算法,以改善受试者SSD多盒检测器在步骤2中的每帧上运行。CDT滤波器利用这些每帧观测来获得每个图像的ROI并改进MAV自姿态估计。3.3. 步骤3:离线姿态估计本节的其余部分讨论步骤3,其中使用在线阶段(步骤1)中获取的数据估计人请注意,步骤4涉及与基础事实的比较,因此将在下一节中通过实验和结果进行讨论。3.3.1预赛考虑一个具有C移动摄像机的系统。每个摄像机的内部参数是固定的。由于摄像机在世界坐标系中移动,因此它们的外部参数(旋转向量、平移向量)随时间而改变。的在任意时刻t,摄像机c的旋转矢量(3×1)和位置矢量(3×1)分别表示为rc,t和pc,tSMPL [16]是最先进的人体模型。 它是通过使用成千上万的高质量身体扫描的人与各种各样的身体类型来学习它是由两个潜在的参数:姿势和形状参数化。姿态参数用θ表示。 它是一个72×1向量,即23个关节中的每个关节有3个轴角度值,对于根(骨盆)关节位置(23*3+3=72)。SMPL形状参数β是一个(10×1)向量,其元素是10个最重要的特征形状的权重(详细信息参见[16]对所收集的图像的2D联合检测可能是高噪声的。我们使用多个2D联合检测器的鲁棒性。假设我们使用D个检测器,每个检测器在相机平面上给出N个关节位置。在时刻t,由第d个检测器在第c个摄像机平面上给出的第n个关节的位置是a2×1向量表示为jn,d。 探测器还提供了一个每个检测到的关节的概率置信度值。它被表示为wn,d。8271wρσ不CSMPL姿态向量θ是所有关节角度的集合。然而,人类的姿势并没有跨越整个...e2ρ(e)=.(四)角空间。为了将θ限制在自然的姿态空间中,我们使用另一种具有已知分布的参数化。这种方法也称为Vposer,在[20]中首次引入。人体姿势的新参数化有32个元素,是具有正态分布的VAE(变分自动编码器)[13]的潜在空间Vposer接受了超过100万个多主题姿势的训练,能够产生新颖,逼真的人体姿势。有关数据和实际培训程序的更多详细信息,请参见[20]。Vposer提供了从潜在变量z到完整姿态变量θ的映射,给出为θ= V(z)。(一)我们可以利用已知的潜在变异分布-σ1e2+σ2正如在第二节中所解释的3.1中,摄像机外参数直接由MAV编队飞行过程中保存的自位姿数据获得MAV的自姿态估计容易受到各种误差源的影响,例如,全球定位系统和惯性测量单元漂移和改变prevelant风速造成波动的气压计测量。这导致相机外部参数是有噪声的。因此,我们还优化了相机外部参数,目的是通过包括另一个成本项,Er,p=ρσ2(rc,t-rc,t)+ρσ2(pc,t-p,t),(5)能够作为我们的优化目标的先验,通过保持其其中rc,t和p是旋转和位置向量,值接近正态分布的平均值。这转化为新参数化上的简单L2范数3.3.2算法我们使用检测到的2D关节和内部参数来优化身体模型参数以及相机外部参数。摄像机外部参数用第二节中得到的精确估计初始化。3.2.这对于每个时间步独立地完成。我们在每个时间步长t最小化成本函数,其可以分解为以下分量:E(r1···C,t,p1···C,t,zt,βt)=相机c在任何时间t由MAV在线估计,在数据采集阶段。ρσ2与(4)中描述的函数相同。Ez是潜在姿态参数上的正则化项z给定为Ez=z。(六)β是SMPL的10个最重要的本征形状的向量,我们用Eβ将其正则化为Eβ=β。(七)4. 实验和结果4.1. 数据采集使用我们的MAV为基础的运动捕捉系统中所描述的。3.1,我们进行了数据采集编队飞行E2D +λr,pEr,p+λzEz +λβ(二)Eβ,使用3架微型飞行器我们的机载编队控制器,MAV自身姿态和人其中λr、p、λz和λβ是相应分量的权重。第一项确保模型的3D关节的2D投影保持接近观察到的2D关节。其给出为E2D(zt,βt,rc,t,pc,t)=估计器等,被实现为机器人操作系统(ROS)节点,这使得MAV更容易使用标准消息类型彼此通信。微型飞行器编队的高度和水平与被摄体的距离设置为8米。出于安全考虑,该值相对较高在为-信息飞行,受试者被要求以缓慢到中等速度在草地上行走,然后进行跑步。好的。你,(三)dom运动序列,如跳跃千斤顶,弯曲-c,n,dn、dc,t1rc,t,pc,t ,Jn(V(zt),β)n,dc,t向前/向后、摆动手臂等。其中Jn是关节回归函数,其给出给定SMPL姿态和形状参数的第n个关节位置投影函数是在给定相机参数的情况下将3D点投影到图像平面上的投影函数ρσ1是Geman-具有固定参数σ1的McClure鲁棒罚函数,c,t-j、828写为4.2. 数据集所有图像和相机外部和内部参数都作为ROS消息保存在每个MAV上的rosbag文件中。每个消息都有Unix时间戳,表示其获取时间。我们从每个摄像头接收图像大约。30-40帧每秒(fps)。即使这两829MAV相机有相同的帧速率,他们没有同步。这意味着,它们不一定同时捕获图像帧。对于来自第一个MAV的相机的任何图像,可能不存在来自另一个MAV的相机在同一时刻的图像。此外,由于相机参数以比图像高得多的频率可用,因此对于系统中的每个图像,相机内在和外在参数是可用的。稍后,我们从保存的bagfile中提取数据,对其进行优化,并使用第2节中描述的方法来估计对象的形状和姿势三点三4.3. 参考数据我们从两个不同的系统中获得参考(ref)数据以评估 我 们 的 参 考 , i ) 商 业 可 用 的 IMU MoCap 系 统(Xsens)[3]和ii)一对差分GPS模块。IMU系统用于获得相对于根关节的身体姿态的参考数据。对于参考SMPL参数,我们使用最先进的IMU MoCap方法稀疏惯性姿态(SIP)[27]。它使用来自Xsens的原始数据并给出SMPL参数。然而,SIP的全局根关节位置和方向对于参考比较来说是不可靠的。为了解决这个问题,我们使用一对差分GPS模块,每个模块连接到受试者的一个肩膀上,以获得根关节在全局坐标系中的位置参考全局根方向仍然是不可估计的,因为它不能用这两个系统直接测量。4.4. 执行使用[21]中的方法,MAV自主地保持围绕人的队形,同时跟随他/她并使他/她保持在相机在编队飞行期间,MAV使用单次拍摄检测器(SSD)多盒[15]检测相机图像中的人,并估计他/她的3D世界位置(而不是关节姿势)和相关的不确定性,以保持编队。 这也会导致感兴趣的裁剪区域(ROI),其具有人在其中的最高可能性。对于每个图像,MAV也保存该相应的ROI。ROI数据和MAV自身姿态估计然后离线细化并保存。我们根据提供的ROI裁剪完整图像,并应用多个关节检测器,每个检测器都会产生一组2D关节估计。如果ROI超出摄像机框架,我们将获取完整图像进行2D联合检测。然后,我们使用两种最先进的2D关节检测器:al-phapose [8,30]和OpenPose [5,22,29]。使用这些联合估计器处理所有数据集图像,并使用与图像相同的时间戳保存其输出。我们在成本函数中使用这些2D关节以及相机外部和内部参数,如(2)中所示由于摄像机不同步,我们使用最近实际形状形状估计联合太平绅士埃贾太平绅士埃贾左侧髋关节0六、730六、81左侧膝关节0的情况。07678. 600的情况。08768. 69L踝关节0的情况。1629五、490的情况。1904五、50L Foot0的情况。18439 .第九条。710的情况。21579 .第九条。44右髋关节0六、620六、60R膝关节0的情况。06809 .第九条。590的情况。07609 .第九条。67右踝关节0的情况。12517 .第一次会议。790的情况。14487 .第一次会议。73R Foot0的情况。14618. 100的情况。16937 .第一次会议。86Spine10五、320五、18Spine20的情况。02643 .第三章。010的情况。0290二、96Spine30的情况。03971 .一、610的情况。04391 .一、59脖子0的情况。0931六、250的情况。1068六、11头0的情况。1237五、130的情况。14284.第一章90L领0的情况。06834.第一章090的情况。07713 .第三章。82左肩0的情况。0779十三岁150的情况。0861十三岁28L弯头0的情况。0863十六岁410的情况。1023十六岁15左手腕0的情况。168910个。460的情况。198410个。21L Hand0的情况。2045二、340的情况。2411二、30R领0的情况。五、550的情况。五、2383006940777右肩0的情况。091910个。960的情况。099310个。87R弯头0的情况。0987二十二岁150的情况。107521岁65右手腕0的情况。178111个国家。410的情况。201311个国家。29R Hand0的情况。21343 .第三章。190的情况。24173 .第三章。19骨盆与参考表1:关节位置(米)和关节角度(度)的平均误差(使用实际体型与形状估计)。骨盆关节与裁判对齐。 L Hip、R Hip和Spine1的位置误差变为0,因为这些关节与骨盆刚性连接。帧的时间从所有的相机为每帧拟合。我们使用SMPL的PyTorch [1]实现从SMPL参数回归到(3)中的3D关节位置。对每一帧的总代价依次最小化,以得到SMPL位姿和摄像机外部参数的优化值σ_1(3)和σ_2(5)分别为40和10。经过反复试验,我们发现这些值工作得很好。在针对帧进行优化之后,优化的参数值被用作下一帧的初始值,除了相机外部参数。这些都是用3.2节中得到的初始化。对于优化,我们使用PyTorch的Adam优化器。第一帧的迭代次数为1000,学习率为0.25,后续帧的迭代次数为100,学习率为0.1。4.5. 结果和讨论首先,我们将重建的姿势与参考姿势进行比较。 在此,我们将重建的SMPL和参考SMPL的全局位置和旋转归零。 在表1中,我们显示了关节位置的平均误差(ejp)和关节角度的平均误差(eja)。 通过取每个估计的关节和关节之间的欧几里得距离来计算ejp。831832833引用[1] Pytorch https://pytorch.org/网站。[2] Vicon动作捕捉系统。 www.vicon.com。[3] Xsens动作捕捉系统。https://www.xsens的网站。com.[4] Federica Bogo、Angjoo Kanazawa、Christoph Lassner、Pe ter Gehler、Javier Romero和Michael J.黑色.保持它SMPL:从单个图像自动估计3D人体姿势和形状。在计算 机 视 觉 Springer International Publishing , Oct. 2016年。[5] 曹哲、托马斯·西蒙、魏世恩和亚瑟·谢赫。利用局部仿射场进行实时多人二维姿态估计。在CVPR,2017年。[6] Ahmed Elhayek 、 Edilson de Aguiar 、 Arjun Jain 、Jonathan Tompson 、 Leonid Pishchulin 、 MykhayloAndriluka、Christoph Bregler、Bernt Schiele和ChristianTheobalt。马可尼-基于convnet的无标记运动捕捉在室外和室内场景。IEEE Transactions on Pattern Analysis andMachine Intelligence,39(3):501[7] 艾哈迈德·埃尔海耶克、卡斯滕·斯托尔、金光仁和克里斯-田·西奥博尔特。户外人体运动姿态和摄像机参数同步优化捕捉。Comput. Graph. Forum,34(6):86-98,Sept. 2015年。[8] 方浩树,谢淑琴,戴玉荣,陆策武。RMPE:区域多人姿势估计。InICCV,2017.[9] 尼 尔 斯 · 哈 斯 勒 ,博 多 · 罗 森 哈 恩ThorstenThormaühlen ,Michael Wand, Juergen Gall,and Hans-Peter Seidel.无标记的动作捕捉与非同步移动摄像机。2009年IEEE计算机视觉和模式识别会议,第224-231页[10] 黄 英 豪 , Federica Bogo , Christoph Lassner , AngjooKanazawa , Peter V. Gehler , Javier Romero , IjazAkhter,and Michael J.黑色.随着时间的推移,朝向准确的无标记人体形状和姿势估计。在3D视觉国际会议(3DV),2017年。[11] Yinghao Huang , Manuel Kaufmann , Emre Aksan ,Michael J. Black,Otmar Hilliges,and Gerard Pons-Moll.深度惯性姿态:学习实时从稀疏的惯性测量中重建人体姿 态ACM Transactions on Graph-ics , ( Proc.SIGGRAPH Asia),37:185:1-185:15,Nov. 2018.两位第一作者贡献相当。[12] 作者:Michael J.作者:David W.雅各布斯和吉坦德拉·马利克端到端恢复人体形状和姿势。IEEE计算机视觉与模式识别会议(CVPR)IEEE计算机学会,2018年。[13] 迪德里克山口金玛和麦克斯·威林自动编码变分贝叶斯。[14] David Liebowitz和Stefan Carlsson利用关节结构约束的未校准运动捕捉载于ICCV,2001年。[15] Wei Liu , Dragomir Anguelov , Dumitru Erhan ,Christian Szegedy , Scott Reed , Cheng-Yang Fu , andAlexander C.伯格。SSD:单次触发多盒探测器。在ECCV,2016年。[16] Matthew Loper 、 Naureen Mahmood 、 Javier Romero 、Gerard Pons-Moll和Michael J.黑色. SMPL:皮肤多人线性模型ACM Trans. Graphics(Proc. SIGGRAPHAsia),34(6):248:1-248:16,Oct. 2015年。[17] DushyantMehta,SrinathSridhar,OleksandrSotnychenko , Helge Rhodin , Mohammad Shafiei ,Hans-Peter Seidel , Weipeng Xu , Dan Casas , andChristian Theobalt. Vnect:使用单个rgb摄像头进行实时3d人体姿势估计。第36卷,2017年7月。[18] 托比亚斯·纳盖利,塞缪尔·奥伯霍尔泽,西尔·v·安·普鲁斯,J·阿朗索-莫拉,奥特马尔·希利格斯。与环境无关的实时多视角飞行器人体姿态估计。2018年。[19] Mohamed Omran 、 Christoph Lassner 、 Gerard Pons-Moll、Pe ter V. Gehler和Bernt Schiele。神经身体拟合:统一深度学习和基于模型的人体姿势和形状估计。在3DV中,Sept. 2018年。[20] Georgios Pavlakos,Vasileios Choutas,Nima Ghorbani,Timo Bolkart , Ahmed A.A. Osman , DimitriosTzionas,and Michael J.黑色.表现性身体捕捉:从单个图像获得3D手、脸和身体。IEEE Conf.关于计算机视觉和模式识别(CVPR),2019年6月。[21] 作者:Eric Price,Guilherme Lawless,Roman Ludwig,Igor Martino vic,HeinrichH. 作者:MichaelJ. 布莱克和阿米尔·艾哈迈德基于深度神经网络的多微型飞行器协同视觉跟踪。IEEE Robotics and Automation Letters,3(4):3193-3200,Oct. 2018. 2018年IEEE/RSJ智能机器人与系统国际会议(IROS)。[22] Tomas Simon,Hanbyul Joo,Iain Matthews,and YaserSheikh. 使用多视图自举的单图像中的手关键点检测在CVPR,2017年。[23] Rahul Tallamraju , Eric Price , Roman Ludwig ,KamalakarKarlapalem,HeinrichHBülthoff,MichaelJBlack,and Aamir Ahmad.基于主动感知的多飞行器编队控制。IEEE Robotics and Automation Letters,第1-1页[24] 放大图片作者:Michael J. Black,Bodo Rosenhahn,andGerard Pons-Moll.使用IMU和移动相机在野外恢复准确的3D人体姿势。在欧洲计算机视觉会议(ECCV)上,2018年。[25] Timo von Marcard,Gerard Pons-Moll,and Bodo Rosen-hahn. 基于视频和imus的人体姿态估计Transactions onPattern Analysis and Machine Intelligence ( PAMI ) ,2016年1月。[26] Timo von Marcard,Bodo Rosenhahn,Michael Black,and Gerard Pons-Moll.稀疏惯性姿态:从稀疏imus自动估计三维人体姿态。计算机图形学论坛36(2),欧洲计算机图形学协会(Euro- graphics)第38届年会论文集,第349-360页[27] Timo von Marcard,Bodo Rosenhahn,Michael Black,and Gerard Pons-Moll.稀疏惯性姿态:从稀疏imus自动估计三维人体姿态。计算机图形学论坛36(2),欧洲计算机图形学协会(Euro- graphics)第38届年会论文集,第349-360页834[28] 王彦刚,刘业斌,X.Tong,Qionghai Dai,and Ping Tan.户 外 无 标 记 运 动 捕 捉 稀 疏 手 持 摄 像 机 。 IEEETransactions on Visualization and Computer Graphics ,24:1856[29] Shih-En Wei,Varun Ramakrishna,Takeo Kanade,andYaser Sheikh.卷积姿势机器。在CVPR,2016年。[30] Yuliang Xiu , Jiefeng Li , Haoyu Wang , YinghongFang,and Cewu Lu. Pose Flow:高效的在线姿势跟踪。在BMVC,2018年。[31] 徐兰,刘业斌,程伟成,郭凯文,周古月,戴琼海,陆芳。Flycap:使用多个自主飞行相机进行无标记运动捕捉 。 IEEE Transactions on Visualization and ComputerGraph-ics,24:2284[32] Zerong Zheng , Tao Yu , Hao Li , Kaiwen Guo ,Qionghai Dai,Lu Fang,and Yebin Liu.HybridFusion:使用单个深度传感器和稀疏IMU进行实时性能捕获。2018.
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- zigbee-cluster-library-specification
- JSBSim Reference Manual
- c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf
- 建筑供配电系统相关课件.pptx
- 企业管理规章制度及管理模式.doc
- vb打开摄像头.doc
- 云计算-可信计算中认证协议改进方案.pdf
- [详细完整版]单片机编程4.ppt
- c语言常用算法.pdf
- c++经典程序代码大全.pdf
- 单片机数字时钟资料.doc
- 11项目管理前沿1.0.pptx
- 基于ssm的“魅力”繁峙宣传网站的设计与实现论文.doc
- 智慧交通综合解决方案.pptx
- 建筑防潮设计-PowerPointPresentati.pptx
- SPC统计过程控制程序.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功