没有合适的资源?快使用搜索试试~ 我知道了~
94580PSTR:基于Transformer的端到端一步法人员搜索0Jiale Cao 1, 2, Yanwei Pang 1*,Rao Muhammad Anwer 2,Hisham Cholakkal 2,Jin Xie 3, 2,Mubarak Shah 4,FahadShahbaz Khan 2, 501 天津大学 2 Mohamed bin Zayed人工智能大学 3 重庆大学 4中央佛罗里达大学 5 Link¨oping大学0{connor,pyw}@tju.edu.cn,{rao.anwer,hisham.cholakkal,fahad.khan}@mbzuai.ac.ae0xiejin@cqu.edu.cn, shah@crcv.ucf.edu0摘要0我们提出了一种新颖的一步法基于Transformer的人员搜索框架PSTR,它在单个架构中同时进行人员检测和再识别(re-id)。PSTR包括一个专门用于人员搜索的(PSS)模块,其中包含一个用于人员检测的编码器-解码器和一个用于人员再识别的判别性解码器。判别性再识别解码器利用多级监督方案进行判别性再识别特征学习,并且包括一个部分注意力块来编码人员不同部分之间的关系。我们还引入了一个简单的多尺度方案,以支持不同尺度上的人员再识别。PSTR共同实现了对象级别识别(检测)和实例级别匹配(再识别)的多样目标。据我们所知,我们是第一个提出端到端一步法基于Transformer的人员搜索框架的人。我们在两个流行的基准测试集CUHK-SYSU和PRW上进行了实验。我们广泛的消融实验揭示了所提出贡献的优点。此外,所提出的PSTR在两个基准测试集上取得了新的最优结果。在具有挑战性的PRW基准测试集上,PSTR的平均精度(mAP)得分为56.5%。源代码可在https://github.com/JialeCao001/PSTR上获得。01. 引言0人员搜索旨在从一个真实世界未裁剪图像库中检测和识别目标人员,可以看作是人员检测[1, 19, 21,32]和再识别(re-id)[6, 17,34]的联合任务。人员搜索涉及解决这两个不同子任务的挑战,并在统一框架中共同优化它们。人员搜索方法可以粗略地分为0*通讯作者:Yanwei Pang0检测主干网络0再识别主干网络0C&R0共享主干网络0检测头0再识别头0再识别特征0共享主干网络0人员搜索专用编码器-解码器0查询0(a)两步法0(b)一步法0(c)我们的PSTR0再识别特征0图1.我们的PSTR架构(c)与现有的两步法(a)和一步法(b)的比较。(a)在两步法范式中,人员检测和再识别子任务使用两个独立的网络进行。首先,检测网络预测边界框,然后进行裁剪和调整(C&R),然后输入到再识别网络中。(b)在一步法范式中,检测和再识别分支共享相同的主干网络。(c)与这两种范式不同,我们的PSTR是一种端到端的一步法基于Transformer的架构,具有一个专门用于人员搜索的模块,可以在不需要NMS后处理步骤的情况下同时进行检测和再识别。0两步法[4, 10, 35]和一步法[5, 29,31]。两步法通常将两个子任务分开进行,即先进行人员检测和再识别(图1(a))。首先,使用现成的检测网络(例如Faster R-CNN[22])来检测行人。然后,将检测到的行人裁剪并调整为固定分辨率,然后利用再识别网络来识别裁剪后的行人。虽然取得了很好的性能,但大多数两步法计算开销较大。相反,一步法同时使用单个网络进行人员检测和识别(图1(b))。首先,通过共享网络提取特征。work. Then, person detection and re-id are performed bytwo branches within the same network.Despite recent progress in person search, both two-stepand one-step approaches employ hand-designed mecha-nisms, such as non-maximum suppression (NMS) proce-dure to filter out duplicate predictions for each person. Re-cently, transformers [9,24] have shown promising results inseveral vision tasks, including object detection [2,37]. Theencoder-decoder design of transformer-based object detec-tors alleviates the need to employ different hand-designedcomponents, leading to a simpler end-to-end trainable ar-chitecture. Further, the transformer architecture can be eas-ily extended to a multi-task learning framework [13, 27].Despite their recent success, transformers are yet to be in-vestigated for person search. In this work, we investigatethe problem of designing a simple but accurate end-to-endone-step transformer-based person search framework.When designing a one-step transformer-based personsearch framework, a straight-forward way is to adopt an ob-ject detector, such as DETR [2] to detect persons, while there-ID sub-task can be performed in different ways. (i) Thetransformer decoder within object detector can be modifiedby introducing an auxiliary task of re-id. (ii) Two separatestandard encoder-decoder networks can be utilized to per-form detection and re-id sub-tasks. However, we observethese strategies struggle to achieve satisfactory results.1.1. MotivationWe consider two desirable properties when designing atransformer-based person search framework.Improved re-id feature discriminability: The sub-tasksof detection and re-id within person search have differ-ent objectives. Person detection strives to perform object-level recognition and localization by differentiating the per-son category from background. Here, all person instanceswithin and across images are grouped into a single personcategory. On the other hand, person re-id sub-task aims toidentify a person at instance-level. Here, a person instanceis desired to be matched with a database of images, therebyrequiring to discriminate among instances of different per-sons within the same person category.Therefore, trans-former re-id decoders need to be distinct from their detectorcounterparts and are desired to generate discriminative fea-tures specialized to perform instance-level matching.Encoding multi-scale information for re-id: Scale varia-tion is a challenging problem in person search. The sameperson captured by different cameras may have a largevariation in scale, which increases the difficulty for per-son matching. Most existing approaches either follow thestrategy where pedestrians are first detected and then re-sized into a fixed resolution or adopt a feature RoI pool-ing scheme [22] to obtain scale-invariant representation. In-stead of image resizing or feature pooling, we look into an5060708090100304050Inference time (ms)mAPMethodmAPTimeNAE [5]43.383NAE+ [5]44.098AlignPS [30]45.961DMRN [11]46.966SeqNet [16]46.786PSTR (ours)49.5565060708090100657075808590Inference time (ms)Top-1 AccuracyMethodTop-1TimeNAE [5]80.983NAE+ [5]81.198AlignPS [30]81.961DMRN [11]83.366SeqNet [16]83.486PSTR (ours)87.856Figure 2. Accuracy (AP) vs. speed (ms) comparison with existingone-step methods on PRW test set. All methods use a ResNet50backbone and the speed is reported on a V100 GPU. Our end-to-end one-step transformer-based PSTR outperforms existing meth-ods in terms of both speed and accuracy.approach to encode multi-scale information within a trans-former architecture for re-id in person search.1.2. ContributionsWe propose a novel end-to-end one-step transformer-based person search framework, named PSTR. Our PSTRtreats person search as a sequence prediction problem,where all persons in an image are detected along with theirrespective re-id features (Fig. 1(c)). To this end, we in-troduce a person search-specialized (PSS) module withinPSTR that performs both detection and re-id. The PSS mod-ule aims to improve feature discriminability of re-id featuresby introducing a discriminative re-id decoder that utilizes amulti-level supervision scheme with a shared decoder de-sign. Further, we introduce a part attention block within thediscriminative re-id decoder to capture the relationship ofdifferent parts. Moreover, we propose a simple multi-scalescheme of our discriminative re-id decoder to address theissue of person matching at different scales. To the best ofour knowledge, PSTR is the first end-to-end one-step per-son search framework based on transformers.We validate PSTR on CUHK-SYSU [29] and PRW [35].Our comprehensive ablations reveal the merits of the con-tributions. Further, PSTR sets a new state-of-the-art on bothbenchmarks. When using ResNet50 [12], PSTR achieves amAP score of 49.5% on PRW benchmark, while running ata speed of 56 milliseconds (ms) on a single V100 GPU (seeFig. 2). With a transformer-based backbone [26], PSTR ob-tains the best reported results with a mAP score of 56.5%.945902. 相关工作0人物搜索:现有的人物搜索方法可以大致分为两步和一步方法。为了解决检测和re-id的子任务,两步方法[10,15,35]利用两个专门用于检测和re-id的独立网络。Zhang等人[35]通过引入两个独立的模型来探索人物搜索。Chen等人[4]提出了一个基于掩码引导的双流网络来获取detection encoder-decoder𝑭𝒆𝟑𝑭𝒆𝟑𝑭𝒅𝟐𝑭𝒅𝟑𝑭𝒓𝟏𝑭𝒊𝑭𝒆𝟑𝑭𝒅𝟏𝑭𝒆𝟐𝑭𝒆𝟏dicriminative re-id decoder(scale 2)𝑷𝟑𝑷𝟒……re-id query𝑭𝒓𝟐𝑭𝒓𝟑3. Methodthe standard encoder-decoder in deformable DETR with aperson-search specialized (PSS) module (Fig. 3(b)). ThePSS module is designed to perform detection and re-idfor person search, which comprises a detection encoder-decoder along with a discriminative re-id decoder. The de-tection encoder-decoder takes backbone features and per-forms pedestrian regression and classification using threecascaded decoders followed by a prediction head, as in [37].The discriminative re-id decoder utilizes a multi-level su-pervision scheme with a shared decoder design by takingre-id feature queries from one of the three detection de-coders as input. It then generates discriminative re-id fea-tures for instance-level matching. The multi-level super-vision scheme in our discriminative (shared) re-id decoderprovides diverse input re-id feature queries and box sam-pling locations, thereby guiding the feature learning for per-son search. In addition to its shared design, our novel dis-criminative re-id decoder comprises a part attention decoderto capture the relationship between different person parts.To support re-id across person instances at different scales,we employ our PSS module in a multi-scale extension byusing the features of different layers. Consequently, the re-sulting multi-scale re-id features are concatenated to per-form instance-level matching with the query person.94600编码器30编码器20编码器10解码器3(检测)0解码器2(检测)0解码器1(检测)0部分注意力块(re-id)0分类和回归0分类和re-id特征0re-id特征re-id特征0检测查询0re-id特征查询0判别性re-id解码器0二分匹配损失0检测编码器-解码器0判别性re-id解码器(尺度1)0�2输入0re-id10re-id20分数..0N0(a)整体架构(b)人物搜索专用模块0人物搜索专用模块0re-id查询0预测输出0仅训练0� �:H/16 × W/16 × 256 � �:N × 256 � �:N × 2560图3.(a)我们的端到端一步PSTR的整体架构。PSTR由主干网络和专门用于人物搜索的人物搜索专用(PSS)模块组成,用于执行人物搜索的检测和re-id。(b)PSS模块由一个检测编码器-解码器和一个新颖的判别性re-id解码器组成。检测编码器-解码器使用主干特征进行行人回归和分类,使用三个级联解码器和一个预测头。判别性re-id解码器在训练过程中利用多级监督方案,其中一个共享解码器接收来自三个检测解码器之一的re-id特征查询作为输入。多级监督方案能够增加检测框位置和输入re-id特征查询的多样性,从而增强re-id特征的可辨识性。我们还在判别性re-id解码器中引入了一个部分注意力块,以捕捉人物不同部分之间的关系。PSS模块在多尺度扩展中被用于支持不同尺度上的人物实例的re-id。0增强特征表示。Wang等人[25]利用一个身份引导的查询检测器来提取类似查询的候选框,并采用一个适应检测的模型进行re-id。一步人物搜索方法将检测和re-id集成到一个统一的框架中。Xiao等人[29]在FastR-CNN中引入了一个re-id分支用于人物匹配。Chen等人[5]提出使用规范感知嵌入来分离检测和re-id。Munjal等人[20]通过将一个查询引导的Siamese挤压激励块集成到主干网络中来建立查询图像和画廊图像之间的关系。[7]的工作采用了一个Siamese网络,同时输入整个图像和裁剪的人物,以更好地指导人物特征的学习。一些现有的工作[3,16,31]探索了利用上下文信息进行人物搜索的问题。最近,Yan等人[30]引入了一种新颖的无锚点方法用于人物搜索。基于Transformer的端到端目标检测:最近,DETR[2]引入了一种端到端的目标检测流程,通过一组检测查询来预测目标。DETR面临着收敛速度慢和对小尺寸目标性能较低的问题。为了解决这些问题,可变形DETR[37]通过一个可变形注意力模块替换标准注意力模块,该模块关注参考点周围的一小组局部采样点。对于输入图像,首先通过编码器增强主干网络获取的特征。然后,使用增强特征和检测查询,可变形Transformer解码器生成N个最终的目标特征。最后,一个预测头预测分类分数和边界位置。03.1.人员搜索专用模块0在我们的PSTR中,我们从骨干(例如ResNet [12]或PVT[26])获取特征,并通过可变形卷积层提取局部信息。得到的特征Pi被馈送到我们的人员搜索专用(PSS)模块。此外,PSS模块还将一组检测查询作为附加输入,并分别生成用于检测和re-id的特征。PSS模块包括一个检测编码器-解码器(第3.1.1节)和一个判别式-94610判别式re-id解码器(第3.1.2节)。检测编码器-解码器预测检测查询的分类和回归特征。另一方面,判别式re-id解码器提取检测查询的re-id特征。03.1.1检测编码器-解码器0在PSS模块中,检测编码器-解码器基于可变形DETR[37]构建。如图3(b)所示,检测编码器-解码器由三个编码器和三个解码器组成,利用特征Pi作为输入。每个编码器都有一个可变形自注意力层和一个MLP层。每个编码器的输出特征表示为Fe1,Fe2,Fe3。因此,第一个解码器以Fe3特征和N个检测查询作为输入。每个解码器包含一个标准的自注意力层,一个可变形交叉注意力层和一个MLP层。每个解码器的输出特征表示为Fd1,Fd2,Fd3。我们对所有三个编码器和解码器使用长度为256的特征。解码器特征用于盒子分类和回归的预测头,并进一步用于为我们接下来介绍的判别式re-id解码器获取re-id特征查询。03.1.2判别式re-id解码器0我们引入了判别式re-id解码器,为每个人生成判别式re-id特征。图3(b)展示了我们的判别式re-id解码器。它以特征Pi作为输入。判别式re-id解码器利用共享解码器设计的多级监督。为此,判别式re-id解码器利用来自不同检测解码器的特征Fd1,Fd2,Fd3作为re-id特征查询,以提高re-id特征查询和训练期间的框位置(采样位置)的多样性。在推理过程中,我们利用特征Fd3作为re-id特征查询来获取判别式re-id特征。我们进一步引入了一个部分注意力块,由两个部分注意力层组成,以捕捉人体不同部分之间的关系。我们的判别式re-id解码器通过从检测解码器中获取re-id查询直接对特征Pi进行操作。我们观察到,与标准的编码器-解码器设计相比,这种架构设计在re-id子任务上更准确。共享解码器设计的多级监督:设计re-id解码器的一种直接方法是使用最后的检测特征Fd3作为re-id特征查询,并使用re-id解码器进行特征预测,如图4(a)所示。然而,我们观察到,由于缺乏从单级监督中学习到的判别式re-id特征,这种设计可能达不到最佳性能。为此,我们引入了两种迭代方案,利用re-id解码器内的多级(中间级)监督来改善re-id特征学习。我们将这两种方案称为pro-0解码器1(检测)0检测)0检测)0解码器1(re-id)0解码器2(0解码器3(0� �1 � �2 � �30� �1 � �2 � �30解码器1(检测)0检测)0检测)0� �1 � �2 � �30� �0解码器1(检测)0检测)0检测)0解码器(re-id)0� �1 � �2 � �30� �0(a)单个re-id解码器0(b)并行re-id解码器0(c)共享re-id解码器0共享解码器(re-id)0图4.re-id解码器设计方案的比较。(a)单级监督re-id解码器方案使用最后的检测特征F d3作为re-id特征查询,使用re-id解码器进行特征预测。与这种单级监督方案不同,我们引入了两种多级监督re-id解码器设计:(b)并行re-id和(c)共享re-id解码器。(b)并行re-id方案使用三个并行解码器层通过将检测解码器特征(F d 1,F d 2,F d3)作为查询来生成re-id特征。与并行re-id方案不同,(c)共享re-id方案利用Siamese架构,其中所有检测解码器都有一个共享的re-id解码器来生成相应的re-id特征(F r 1,F r 2,F r 3)。0如图4(b)和图4(c)所示,提出了并行re-id解码器和共享re-id解码器两种方案。并行re-id解码器将每个检测解码器的特征作为re-id特征查询,并使用三个并行解码器层生成re-id特征F r 1,F r 2,F r 3。这里,re-id特征F r 1,F r2仅在训练过程中用于提供多级(中间)监督。与并行re-id解码器方案不同,共享re-id解码器方案采用Siamese架构,其中三个re-id特征查询都有一个共享解码器来生成三个re-id特征。与并行re-id解码器类似,共享re-id解码器方案在训练过程中也仅使用特征F r 1,F r2。正如前面讨论的,人物检测和re-id这两个子任务具有不同的目标(对象级别识别和实例级别匹配)。基于此,我们直接使用骨干特征作为判别式re-id解码器的输入,而不是使用来自检测编码器的特征。我们经验证明,与使用来自检测编码器的特征相比,这样做可以获得更好的性能。部分注意力块:为了编码一个人的不同部分之间的关系,我们引入了一个部分注意力94620注意力0MLP偏移0MLP输出0平均0部分注意力层0部分注意力层0查询0查询输入0(a)部分注意力块(b)部分注意力层0输出0图5.(a)我们判别式re-id解码器中的部分注意力块。该块由两个部分注意力层组成,用于编码不同部分(点)之间的关系。(b)部分注意力层利用查询特征来预测采样点。与不同部分的特征通过交叉注意力融合的方式聚合在一起。0在我们的判别式re-id解码器中,使用了两个层的块(见图5)。与可变形注意力[37]类似,我们使用查询特征来预测采样点,这些点代表一个人的不同部分。然而,我们观察到查询特征的注意力权重难以有效地捕捉到一个人实例内部的部分关系。因此,与标准的可变形注意力不同,我们不使用来自查询特征的注意力权重。我们的部分注意力通过在采样点上对特征进行平均,然后通过调整交叉注意力模块来聚合来自不同部分的特征以生成输出。03.2. 多尺度判别式re-id解码器0尺度变化是人员匹配中的一个主要挑战,因为同一个人可能会在不同的摄像头上以不同的尺度被捕捉到。为了解决这个问题,我们通过在不同尺度上使用它来对我们的判别式re-id解码器进行了简单的扩展。在这里,不同尺度上的判别式re-id解码器使用检测解码器特征作为re-id特征查询。为了提取多尺度的re-id特征,额外的re-id解码器使用特征(例如P2,P3)作为输入并执行re-id特征生成。在训练过程中,这些判别式re-id解码器由独立的re-id损失进行监督。在推理过程中,我们将来自不同尺度的这些判别式re-id特征连接起来,得到用于人员匹配的多尺度re-id特征。03.3. 训练和推理0我们的PSTR为图像中的每个检测查询预测分类分数、位置和re-id特征。检测特征F d 1,F d 2,F d3分别通过两个MLP层进行分类和定位。特征F r 1,F r 2,F r3直接用作re-id特征。在训练过程中,我们建立了一个查找表V和一个循环队列U来指导re-id特征的学习。我们将所有L个标记身份的re-id特征存储在V中,并将最近几个小批次中的Q个未标记身份的re-id特征存储在U中。在每次迭代中,我们首先计算当前小批次中的re-id特征(例如F r1)与V和U中的所有特征之间的相似性。然后,我们基于相似性计算在线实例匹配(OIM)损失(下面描述),并根据相似性更新V中的第i个条目。我们同时通过弹出旧的re-id特征将新的未标记身份的re-id特征推入U中。OIM损失[29]最大化了当前小批次中每个re-id特征的预期对数似然,即L oim = log p t。这里,pt是re-id特征属于真实身份t的概率,根据re-id特征与V和U中的特征之间的相似性计算得出。最后,总体损失可以写为L = λ 1 L cls + λ 2 L iou + λ 3 L l1 + λ 4 L oim。L cls表示分类损失,Liou表示边界框IoU损失,L l1表示边界框ℓ 1成本,L oim表示OIM损失。λ 1,λ 2,λ 3,λ4是用于平衡不同损失的超参数,设置为2.0,5.0,2.0,0.5。在推理过程中,我们从一组图库图像中的给定查询图像中搜索一个带有注释(边界框)的查询人物。首先,我们使用我们的PSTR生成查询图像的多个预测,其中每个预测包括一个分类分数、一个边界框和一个re-id特征。然后,将查询人物的re-id特征设置为与查询人物边界框具有最大重叠的预测的re-id特征。最后,我们为所有图库图像生成预测,并计算查询人物和图库图像中的预测的re-id特征相似性,以识别图库图像中的匹配人物。0在当前小批次中,如果re-id特征属于地面真实身份i,我们更新V的第i个条目。我们同时通过弹出旧的re-id特征将新的未标记身份的re-id特征推入U中。OIM损失[29]最大化了当前小批次中每个re-id特征的预期对数似然,即L oim = logp t。这里,pt是re-id特征属于地面真实身份t的概率,根据re-id特征与V和U中的特征之间的相似性计算得出。最后,总体损失可以写为L = λ 1 L cls + λ 2 L iou + λ 3 L l1 + λ 4 L oim。Lcls表示分类损失,L iou表示边界框IoU损失,Ll1表示边界框ℓ 1成本,L oim表示OIM损失。λ 1,λ 2,λ3,λ4是用于平衡不同损失的超参数,设置为2.0,5.0,2.0,0.5。在推理过程中,我们从一组图库图像中的给定查询图像中搜索一个带有注释(边界框)的查询人物。首先,我们使用我们的PSTR生成查询图像的多个预测,其中每个预测包括一个分类分数、一个边界框和一个re-id特征。然后,将查询人物的re-id特征设置为与查询人物边界框具有最大重叠的预测的re-id特征。最后,我们为所有图库图像生成预测,并计算查询人物和图库图像中的预测的re-id特征相似性,以识别图库图像中的匹配人物。04. 实验04.1. 数据集和实现细节0CUHK-SYSU [ 29]是一个大规模的人员搜索数据集。总共有18,184张图像,涵盖了各种现实世界的挑战,包括视角变化、光照变化和多样化的背景。它有96,143个标注的行人,有8,432个不同的身份。训练集包括11,206张图像,55,272个行人和5,532个身份。测试集包含6,978张图像,40,871个行人和2,900个身份。在推理过程中,数据集定义了一个不同大小的图库集,范围从50到4,000不等。与[29,30]一样,我们使用图库大小为100的标准设置进行实验。此外,我们还分析了在不同图库大小下的性能。PRW[35]是由6个静态摄像头收集的具有挑战性的人员搜索数据集。训练集包含5,704张图像,18,048个行人和482个身份。测试集有6,112张图像,25,062个行人和450个身份。评估指标:我们采用两个标准指标来评估人员搜索性能:平均准确率(mAP)和top-1准确率。实现细节:我们使用501005001000 2000 400065707580859095501005001000 2000 4000506070809094630方法 骨干网络 CUHK-SYSU PRW0mAP Top-1 mAP Top-10两步法 IDE [29] ResNet50 - - 20.5 48.30MGTS [4] VGG16 83.0 83.7 32.6 72.10CLSA [15] ResNet50 87.2 88.5 38.7 65.00RDLR [10] ResNet50 93.0 94.2 42.9 70.20IGPN [8] ResNet50 90.3 91.4 47.2 87.00TCTS [25] ResNet50 93.9 95.1 46.8 87.50一步法带两阶段检测器 OIM [29] ResNet50 75.5 78.7 21.3 49.40IAN [28] ResNet50 76.3 80.1 23.0 61.90NPSM [18] ResNet50 77.9 81.2 24.2 53.10RCAA [3] ResNet50 79.3 81.3 - -0CTXG [31] ResNet50 84.1 86.5 33.4 73.60QEEPS [20] ResNet50 88.9 89.1 37.1 76.70BINet [7] ResNet50 90.0 90.7 45.3 81.70APNet [36] ResNet50 88.9 89.3 41.9 81.40NAE [5] ResNet50 91.5 92.4 43.3 80.90NAE+ [5] ResNet50 92.1 92.9 44.0 81.10PGSFL [14] ResNet50 90.2 91.8 42.5 83.50PGSFL [14] ResNet50-dilated 92.3 94.7 44.2 85.20SeqNet [16] ResNet50 93.8 94.6 46.7 83.40DMRN [11] ResNet50 93.2 94.2 46.9 83.30一步法带无锚点检测器 AlignPS [30] ResNet50 93.1 93.4 45.9 81.90AlignPS [30] ResNet50-DCN 94.0 94.5 46.1 82.10一步法带端到端Transformer PSTR(我们的方法)ResNet50 93.595.0 49.5 87.80
下载后可阅读完整内容,剩余1页未读,立即下载
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 利用迪杰斯特拉算法的全国交通咨询系统设计与实现
- 全国交通咨询系统C++实现源码解析
- DFT与FFT应用:信号频谱分析实验
- MATLAB图论算法实现:最小费用最大流
- MATLAB常用命令完全指南
- 共创智慧灯杆数据运营公司——抢占5G市场
- 中山农情统计分析系统项目实施与管理策略
- XX省中小学智慧校园建设实施方案
- 中山农情统计分析系统项目实施方案
- MATLAB函数详解:从Text到Size的实用指南
- 考虑速度与加速度限制的工业机器人轨迹规划与实时补偿算法
- Matlab进行统计回归分析:从单因素到双因素方差分析
- 智慧灯杆数据运营公司策划书:抢占5G市场,打造智慧城市新载体
- Photoshop基础与色彩知识:信息时代的PS认证考试全攻略
- Photoshop技能测试:核心概念与操作
- Photoshop试题与答案详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)