没有合适的资源?快使用搜索试试~ 我知道了~
基于运动双边网络的无监督视频对象分割李四阳1,2[0000−0002−5991−649X],布莱恩·塞博尔德2[0000−0001−6081−8347],AlexeyVorobyov2,Xuejing Lei1[0000−0003−2335−4445],and C.- C.郭杰1[0000−0001−9474−5035]1美国洛杉矶南加州大学{siyangl,xuejing}@ usc.edu,cckuo@sipi.usc.edu2Google AI Perception,Mountain View,美国{seybold,vorobya}@ google.com抽象。在这项工作中,我们研究了无监督的视频对象分割问题,其中移动对象被分割,而无需这些对象的先验知识首先,我们提出了一个基于运动的双边网络估计的非目标区域的运动模式的基础上的背景。 双边网络通过准确地识别背景对象来减少假阳性区域。然后,我们将来自双边网络的背景估计与实例嵌入集成到图中,这允许多帧推理,其中图边缘连接来自不同帧的像素我们通过定义和最小化成本函数对图节点进行分类,并根据节点标签对视频帧进行分割所提出的方法在DAVIS 2016和FBMS-59数据集上优于以前最关键词:视频对象分割·双边网络·实例嵌入1介绍视频对象分割(VOS)的目标是用精确的掩模跟踪运动对象。它是视频理解中一个重要的预处理步骤。目标物体的掩模可以辅助许多视觉任务,例如动作识别和视觉效果。有两种VOS方案,具体取决于是否指示跟踪目标。前者被称为半监督VOS,而后者被称为无监督VOS或主要对象分割。被跟踪的移动对象和剩余区域分别被称为前景和背景。在这项工作中,我们专注于无监督的情况由于目标对象是未知的,因此许多无监督VOS方法依赖于运动线索,即,[2],[15],以找到要跟踪的对象。常用的架构是双分支卷积神经网络[5],[16],[32],由外观分支和运动分支组成,其采用RGB帧和光学特征。2S. Li等人外观分支运动分支级联的特征BG/FG分类器预测掩码[32]光流以前的方法:具有两个深分支的网络目标:霹雳舞者外观分支(固定)对象性光流基于运动的双边网络估计的背景建议的方法:具有深外观分支和双边网络的网络图1.一、将所提出的方法与[32]中的双分支网络进行我们没有训练一个深度运动分支来生成运动特征,而是提出了一个基于运动和对象性的轻度双边网络,它通过寻找与低对象性区域具有相似运动模式的区域来识别背景流作为其输入,分别,如图的顶部所示。1.虽然网络是用外观和动作联合训练的,但未必能建立前景和运动模式之间的对应关系。例如,如果所有汽车都在训练数据中移动,汽车将始终被标记为前景。所述 两个图像可以在具有运动模式的情况下针对沿方向的区域的应用。然后,静态汽车可能在推断中变成假阳性在这项工作中,我们的目标是建立运动模式和前景/背景直接之间的对应 关系。提出 了一种用于 背景估计的 基于运动的 双边网络(BNN),物体)和光流,如图的底部所示1.一、更具体地,双边网络被训练为基于非对象区域中的光流(由来自外观分支的对象图推断)对运动模式进行建模,并识别具有相似运动模式的区域。值得指出的是,双边网络先前已在[17]中用于在时间上传播掩模,但在所提出的方法中,双边网络被采用以在空间上将背景区域从非对象区域扩展到静态对象。然后,为了利用帧间相似性,构建由来自连续帧的像素组成的图,其中相似性基于实例嵌入定义[9]。 因为逐像素的图推断可能很耗时[34],所以我们在减少的像素集上构建图,然后将标签传播到剩余的像素(图10)。2)的情况。根据实验结果,合并来自多个帧的信息导致更好的分割结果。我们在DAVIS 2016数据集[29]和FBMS-59数据集[27]上测试了所提出的方法。实验结果表明,优越的性能比以前的国家的最先进的方法。贡献包括:1)提出了一种可训练的双边网络,以基于运动线索和对象来估计背景; 2)通过在对象上播种的点的缩减集合的图切割的高效多帧推理; 3)实现最先进的再生产,双边网络视频对象分割3DAVIS 2016和FBMS-59数据集的交叉-联合(IoU)评分分别为80.4%和73.9%,分别比之前的最佳结果高出1.9%和2.0%2相关工作无监督视频对象分割。在深度卷积神经网络(CNN)流行之前,一些方法分别使用高斯混合模型(GMM)和光流来构建外观模型和运动模型[22]。图切割是一种常用的技术,通过优化成本函数[28],[34]将外观/运动模型与时间/空间平滑度集成在一起。重要的是以一种能有效解决问题的方式来表述问题,例如:[26]第10段。所提出的方法还使用图切割来联合优化成本函数,但我们在不同种子点的子集上制定图切割,并依赖于CNN的深度嵌入来更好地模拟像素之间的相似性。后来,CNN,包括最初为图像分割开发的全卷积网络(FCN)[25],被用于分割视频中的移动对象一种常见的方法是训练FCN为每个帧生成二进制掩码[3]。在[5]、[16]、[32]中使用双分支CNN它采用帧及其光流(或两个连续帧)来生成外观和运动特征。这些特征在稍后阶段被组合,并且最终网络产生二进制掩码。MP [31]仅依赖于由于缺乏来自随机干扰的指导,因此需要像以前一样进行移动。VOS的一个常见挑战是缺乏密集注释的视频。FSEG [16]提出从弱标记数据(边界框)生成掩码IET [24]传输从静态图像中学习的实例嵌入,并使用启发式方法来识别移动对象的代表性嵌入SfMNet [35]通过可微分渲染学习对象模型和运动模式,而无需遮罩注释。半监督视频对象分割。如上所述,对于半监督VOS,提供第一帧(或更多帧)的对象掩模,其允许构建准确的外观模型。半监督VOS的一个常见框架是掩码传播[17],[21],其中前一帧和新RGB帧的预测掩码被输入到网络。传播过程可以被视为对先前帧掩码的修改半监督VOS的另一个框架是以用户输入帧[3]、[5]、[36]为条件的二进制掩码预测,其通常需要在线微调以获得最佳性能。也就是说,在推断期间,通过对所提供的掩码进行进一步训练来更新网络权重在线微调在运行时间和内存方面都是昂贵的,因为每个查询序列都存储了唯一的模型。因此,这些方法不能很好地扩展图割也用于半监督VOS [19],[26]。BVS [26]在双边空间中对规则网格进行采样CTN [19]使用CNN来基于以下来识别置信前景和背景区域:4S. Li等人所提供的掩模和光流。然后建立一个图,考虑到颜色和运动的相似性PLM [37]将来自后面帧的像素的深度特征它还需要在线微调以获得最佳性能。图像分割。语义图像分割和对象实例分割是计算机视觉中的两个重要问题,近年来引起了广泛的关注[4],[9],[10],[11],[13],[14],[25],[38]。一种流行的图像分割架构是全卷积神经网络(FCN),它预测每个像素的标签[4],[25]。在语义分割中,目标是为每个像素分配语义类别标签。在语义分割网络上构建VOS方法具有自然限制:不能区分来自同一类别的对象实例。由于我们可能需要从同一类别的多个静态实例中跟踪一个移动实例(例如在VOS中,我们依赖于实例分割网络[6],[9],其中不同的实例是可区分的。在[9]中,为每个像素生成嵌入向量,嵌入向量之间的距离编码了两个像素属于同一实例的概率。IET [24]传输这些嵌入,而无需对视频数据集进行进一步微调,并为每个帧选择前景和背景的代表性嵌入。然后,单独地对每个帧进行分割,因此掩模在时间上不够平滑。在该方法中,我们从多个帧中构建采样像素的图,并依赖于嵌入来测量沿时间维度的相似性。3方法本节将详细解释所提出的方法。概述描述于图1B中。2.它包含三个模块:1)利用基于运动的双边网络进行背景估计,2)利用图切割对采样像素进行分类,以及3)通过传播采样像素的标签进行帧分割。3.1基于运动的双边网络背景估计运动线索是必不可少的无监督VOS问题的解决方案。在MP [31]中,二进制分割神经网络使用光流矢量作为输入并产生运动显着图。由于相机运动,流动模式并不总是对应于移动的对象。 考虑以下两种情况:1)具有向左运动的对象和静态相机,以及2)具有向右运动的对象和跟随对象的相机。后者被视为左移动的背景与静态对象。两种情况下的流动模式被翻转,但都期望物体上的高运动显著性换句话说,网络仅仅依靠光流来找到运动显著对象是令人困惑的为了解决这个问题,我们将光流与对象性分数相结合来估计背景,其中包括静态对象和非对象(也双边网络视频对象分割5密集实例嵌入图像地面实况图二.所提出的方法,包括三个模块的概述。背景是从逆对象图和通过模块1中的双边网络(BNN)的光流估计的,其被包围在浅蓝色中。然后,构建包含来自一组连续帧的采样像素(由点标记)作为顶点的嵌入图。一元成本是基于对象性和从BNN估计的背景来定义的。成对代价来自实例嵌入和光流相似性。在模块2中通过优化总成本对所有顶点进行分类,其中洋红色和黄色点分别表示前景和背景顶点。最后,基于模块3中的嵌入相似性,最好在颜色看[12]《说文》:“物也。给定从分割网络输出的对象图[9],我们可以通过对对象图进行阈值化来定位填充区域。这些区域中的光流可以对背景的运动模式(由于相机运动)进行建模。通过识别相似运动的区域,我们可以将静态对象与背景相关联。换句话说,背景从填充区域扩展到包括静态对象。受双边空间半监督VOS中的时间传播的启发[17],[26],我们用双边网络(BNN)[18]解决了这个背景扩展问题,即通过用可学习的滤波器替换默认的高斯滤波器[1],[33]来进行广义双边滤波。双边滤波我们简要回顾了下面的双边滤波,并参考[1],[18]了解更多细节。双边滤波通过四个步骤实现1)构造双边网格; 2)将输入样本的特征高维双边网格,3)高维网格上的卷积,以及4)将网格上的滤波特征切片回感兴趣的样本。设d和fq∈Rd分别表示双边空间的维数和样本q在双边空间中的位置向量。此外,令sI(i)、sV(v)和sO(o)表示输入样本i、双边网格的顶点v和输出样本o的特征。我们在下面解释了特征是标量的情况,但是该过程可以推广到矢量特征(例如,对于图像去噪,特征是3-D颜色分量)。在图1中示出了具有d = 2的双边滤波过程。3. 2-D双边网格将空间划分成矩形,并且每个顶点v的位置可以fv∈Rd。顶点上的特征通过累加得到模块1:背景估计客观性成对成本逆光流一元成本估计的背景双边网络模块2:Emb h切割模块3:标签传播取样图象成对成本卷边机(of6S. Li等人VVV溅射卷积切片图三.具有尺寸d = 2的双边空间的快速双边滤波流水线的图示:1)飞溅(左):来自输入样本(橙色正方形)的可用特征被累积在双边网格上;2)卷积(中心):顶点上的累积特征被滤波并传播到邻居; 3)切片(右):在双边空间中具有已知位置的任何样本的特征可以通过从其周围顶点插值来获得其相邻矩形中的输入样本的特征,以ΣsV(v)=i∈Ω(v)w(fv, fi)sI(i),(1)其中w(f v,f i)是定义样本i的影响的权重函数在顶点v上,Ω(v)代表v的邻域。常用的权函数w(·,·)包含了离散元和离散元。如图1中的中间图所示,填充后的填充物c(·)被应用于图面上的填充第三章:s′(v)= ΣsV(v−m)c(m),(2)M其中s′(v)是顶点v上的过滤特征。最后,顶点上的经滤波的特征被切片为输出样本〇,给定其位置f 〇,如图1B的右图所示。3.在数学上,样本〇的特征通过下式获得:ΣsO(o)=w(fo, fv)s′(v),(3)v∈Ω(o)其中Ω(o)表示周围顶点的集合,集合大小为2d。W(·,·)上的W函数与Eq中的元素相同。 (一).Eq中的滤波器c(·)。 (2)它是一种通用的非线性滤波器。 它被推广到[18]中的可学习滤波器,其可以通过最小化在s 〇(〇)和〇的目标特征之间定义的损失来训练。可学习滤波器组成双边网络(BNN)[17]。基于运动的双边网络。通常使用的双边空间由颜色分量(例如,RGB)和位置索引(x,y),因此5-D包含要素的输入采样(橙色)过滤器传播到所有采样的要素双边网络视频对象分割7BNN2位置向量可以写为f=(r,g,b,x,y)T。对于视频,时间步长t通常被视为附加维度,产生f=(r,g,b,x,y,t)T[17],[26]。在所提出的方法中,我们扩大静态区域的空间运动的基础上因此,我们有f =(dx,dy,x,y)T,其中(dx,dy)T表示光流矢量。我们不扩展静态区域,因为连续帧上的光流不一定对齐。我们在这个4-D双边空间中建立一个规则的大小网格(G 流,G 流,Gloc,Gloc)。为了获得一组用于溅射的输入样本,我们通过对对象图进行阈值化来定位填充像素。这组填充像素是初始背景,用Binit表示。我们使用反转的对象性分数作为要从输入像素飞溅的特征sI(i)=1−pO bj(i),i∈Binit.(四)反转的对象性分数可以被视为通过等式(1)对背景和溅射过程的软投票。(1)是在双边网格的顶点上累积背景投票。之后,应用4-D过滤器将投票传播到相邻顶点。最后,通过切片,基于它们的光流和空间位置,将传播的投票转发到同一帧上的剩余像素为了训练BNN,我们通过ReLU裁剪负背景投票,并应用tanh函数将裁剪后的投票转换为背景概率,pBG(j)=1− exp{− 2×ReLU [sO(j)]},(5)BNN1 + exp{− 2×ReLU [sO(j)]}而真正的损失是由两个PBG组成的复制和倒置的地面真相面具L=− Σ[1−y(j)]lnpBG(j)+y(j)ln[1−pBG(j)], (6)BNNJBNN其中y(j)∈ {0, 1}是基础事实,其中0和1分别表示背景和前景。3.2嵌入图割由于光流计算是不完善的,估计的背景是不是一个合适的最终分割。例如,非刚性对象的静态部分将从BNN接收高背景分数,从而导致假阴性。为了实现更准确的掩模,我们将预测的背景区域与[9]中的逐像素实例嵌入相结合。嵌入是像素的表示向量,并且两个嵌入之间的欧几里德距离测量像素之间的(不)相似这里的相似性被定义为两个像素属于同一对象实例的概率在数学上,两个像素i和j的相似性得分表示为R(i,j)=21+exp(||ei−ej||(二)、(7)8S. Li等人作为图形节点的种子嵌入差异图籽提取物嵌入图见图4。嵌入图构造的说明。我们基于嵌入差异图提取种子,这些种子成为图节点。边连接作为空间邻居或来自连续帧的节点(有关空间邻居的定义,请参见文本最好在颜色其中ei是像素i的实例嵌入向量。实例嵌入被显式地训练以通过最小化R(i,j)与[9]中的地面真值相同实例指示符之间的交叉熵来编码相似性。给定描述像素相似性的实例嵌入,来自BNN的对象分数和背景分数,我们采用图切割方法通过最小化成本函数来分类像素图切割先前已用于解决像素级图[34]或超像素级图[28]上的VOS考虑到视频中的像素数量,前者是耗时的,而后者容易出现超像素错误。在BVS [26]中,在6-D双边网格(由颜色、空间和时间位置组成)上进行图形切割然而,在双边空间中构建具有高维实例嵌入和位置的网格图是不现实的,因为溅射/切片过程将是耗时的并且所得到的网格将是稀疏的。在所提出的方法中,我们仍然构造一个图的像素作为顶点。为了节省计算,从像素的小子集构建图,所述像素的小子集近似均匀地分布在空间空间中并且位于所述空间映射的稳定点处。所述被采样的像素被称为“采样”并且经由成本最小化来标记。然后,它们的标签被传播到所有像素,这将在后面解释。构建嵌入图。如前所述,构建像素级图导致耗时的图切割。为了减少计算负荷,我们遵循[24]中的种子提取过程,以找到在每个帧上具有代表性嵌入的一组像素为了对帧t上的种子进行分类,我们基于来自帧(t-1)到(t+1)的种子构建图,即,以t为中心的长度为3的时间窗。使用覆盖帧t的不同时间窗口也是可能的,如在第2. 4.4.我们用V表示种子集。下一步是将种子与图中的边链接起来。给定帧上的种子,我们识别最接近每个像素的种子,并且如果两个相邻像素最接近不同的种子,则我们将种子与图形边缘链接。这些边称为空间边。对于来自连续帧的种子,它们被密集地链接以产生时间边缘。其他种子对不连接。图的边用E表示。种子的嵌入图的图示在图1中显示。4.第一章密集连接密集连接双边网络视频对象分割9BNNσ图切。通过最小化以下成本函数来获得嵌入图的切割:ΣL=i∈Vφ(i)+λΣ(i,j)∈E[l(i)/=l(j)]θ(i,j),(8)当rel(i)∈{0,1}是一个对pixeli有意义的空间时,φ(·)是一元数,且θ(·,·)是具有系数的对。这是一个很好的成本,φ(i)=[1-l(i)]φBG(i)+l(i)φFG(i),(9)其中ΦBG(i)和ΦFG(i)分别是节点i被标记为背景和前景的成本对于背景成本,我们利用来自等式(1)的(五)、对于前景成本,它由通过在w或k上的segemont i获得的对象性sc或e,p0bj(i)定义[9]:φBG(i)=−lnpBG(i);(10)φFG(i)=−lnpO bj(i)。(十一)成对成本鼓励将类似节点分配给相同类别,从而减少来自非刚性对象的静态部分的错误。我们考虑通过嵌入ei的实例相似性和通过光流mi =[dxi,dyi]T的运动相似性。具体地,θ(i,j)由下式给出:||2||m i − m j||2||2θ(i,j)=exp(−2)+δ(ti,tj)αexp(−2),(12)2 2e m其中σe和σm是高斯核的标准偏差,α是运动相似性相对于嵌入相似性的重要性,并且是帧索引。如果种子i和j来自不同的帧,则忽略如由狄拉克增量项δ(ti,ti,j)反映的运动相似性项,因为它们的光流可能不对准。虽然实例嵌入是在图像上训练的,但它们在[24]中的连续帧上是稳定因此,它们适用于测量跨帧的相似性。我们在SEC的研究4.4示出了考虑该帧间相似性是有益的,而忽略时间边缘导致较差的性能。3.3标签传播在图形切割之后,最后一步是将标签从种子传播到剩余像素。给定任意像素i,其时空位置由(xi,yi,ti)T表示,我们可以通过在图中找到其空间上最接近的种子和该种子的空间邻居来识别帧ti除了帧ti上的种子之外,我们还包括位于(xi,yi,ti-1)T和(xi,yi,ti+1)T处的像素的相邻种子,即,像素具有相同的空间位置在前一帧和后一帧,如图所示五、相邻σ10S. Li等人2FGBG分段帧t图五.给定任意像素(由菱形标记),其周围节点(在红色圆圈中)从当前帧、前一帧(在此省略)和后一帧识别。具有最短嵌入距离的节点的标签被分配给像素。最好在颜色像素i的种子集由N(i)表示。在N(i)中的种子中,通过以下找到到i的嵌入距离最短的种子:n= arg minm∈N(i)||二、||2.(十三)种子η的标签被分配给像素i。我们根据到N(i)中标记为前景和背景的节点的最短嵌入距离来估计像素i是前景的概率,分别由dFG(i)和dBG(i)表示前景概率定义为FGexp[−d2(i)]p(i)=FG。(十四)exp[−d2(i)] + exp[−d2(i)]注意,如果N(i)中的节点都是前景(或背景),则PFG(i)被定义为1(或0)。因为密集嵌入图的分辨率低于原始视频,所以我们使用多线性插值将概率图上采样到原始分辨率,并使用密集条件随机场(CRF)进一步细化它[23]。4实验4.1数据集和评价指标在 DAVIS 2016 数 据 集 [29] 和 Freiburg-Berkeley Motion Segmentation 59(FBMS-59)数据集[27]上评估了所提出的方法。后者具有多个单独标记的移动对象通过遵循[31],[24],我们通过对单个对象掩码进行分组将注释转换为二进制掩码。DAVIS 2016. DAVIS 2016数据集[29]包含50个高分辨率的密集注释视频序列。它被划分为两个分裂,train和val,分别有30和20个序列。来自该数据集的一些视频由于运动模糊、遮挡和对象变形而具有挑战性。评估指标包括[29]中提出的区域相似性、边界准确性和时间由J表示的区域相似性被定义为注释与预测掩模之间的交集(IoU)到帧t帧(t+1)双边网络视频对象分割11eM测量边界准确度,由F表示,比较注释边界和预测的掩码边界,并计算F分数(精确度和召回率的调和时间稳定性T测量从一个帧变换到其后续帧所需的变形,并且更高的变形意味着随着时间的推移更不平滑的掩模。如[29]所述,该度量适用于DAVIS 2016中的序列子集。FBMS-59在FBMS-59数据集中收集了59个视频序列[27]。与DAVIS相比,该数据集被稀疏地注释,提供了720帧的掩模我们测试所提出的方法的测试分裂,包含30个序列。除了上述区域IoU(J)之外,我们还使用来自[27]的F-score协议用于该数据集,与先前的方法一致。4.2执行我们在DAVIS 2016列车分裂上训练双边网络。对于每个帧,像素的4-D双边空间位置向量(dx,dy,x,y)在每个帧内被归一化理论上,可学习滤波器可以是任何4-D张量,但实际上,为了减少网络的参数数量,BNN由四个级联的1-D滤波器组成,每个维度一个。为了训练BNN,我们将批量大小设置为64并使用学习速率为0.0001,总共10k步。数据增强通过在低分辨率区域(p 〇 b)中随机采样M=50k<像素来完成。001)以用于绘制。在推断期间,我们挑选具有最低对象性分数的M个像素。用于BNN的对象性得分来自[9],并且通过FlowNet2.0的重新实现来计算光流[15]。对于嵌入图切割,我们使用[9]中的实例嵌入,其中在Pascal数据集[7]上进行训练。我们不会对任何视频数据集进行进一步微调超参数通过交叉验证来确定:成对成本权重λ为0.1;等式(1)中的例如嵌入和光流的方差(12),σ2= 1且2= 10。运动相似度相对于嵌入相似度的权重α被设置为1。4.3性能比较DAVIS 2016.DAVIS 2016上的结果显示在选项卡中。1.一、在J均值和F均值方面,所提出的请注意,对于J均值,我们的方法甚至比最近的一些半监督方法OSVOS [3]和MSK [21]取得了更好的结果。在时间稳定性方面,我们的方法在无监督类别中排名第二:比最稳定的方法LVO差1.3%[32]。我们在图中提供了一些可视化的结果。6和更多可以在补充材料中找到。FBMS-59 所提出的方法进行评估的FBMS-59数据集,其中有30个序列的测试分裂结果列于表2中我们的方法在J均值和F得分方面优于第二好的方法IET [24]σ12S. Li等人BNNBNNBNNBNN图六、DAVIS 2016val分割的定性分割结果这四个序列分别表1.DAVIS 2016数据集的val分割结果[29]。该方法在J/F均值方面优于其他无监督方法,甚至优于一些半监督方法。对于时间稳定性(T),我们的方法是第二好的。各序列的J值见补充材料半监督无监督OAVOS[36] OSVOS[3] MSK[21] SFL[5] LVO[32] MP[31] FSEG[16] [22]第二十二话IET[24]我们J平均值↑86.179.879.767.475.970.070.776.278.680.4J回忆↑J衰变↓96.15.293.614.993.18.981.46.289.10.085.01.383.51.591.17.0--93.24.8F平均值↑ F回忆↑F衰变↓84.989.75.880.692.615.075.487.19.066.777.15.172.183.41.365.979.22.565.373.81.870.683.57.976.1--78.588.64.4不 平均值↓19.037.821.828.226.557.232.839.3-27.82%和0.4%。我们在补充材料中提供了FBMS-59数据集的可视化分割结果4.4模块贡献基于运动的BNN。视频片段可以通过直接阈值化来分割Bggbckg roun dprobb il ityBG由方程式(五)、也就是说,像素是前景,如果pBG
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 收起
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功