没有合适的资源?快使用搜索试试~ 我知道了~
中级攻击增强对抗性示例的可移植性
4733利用中级攻击增强对抗性示例的可移植性黄倩就读康奈尔大学qh53@cornell.eduIsay Katsman*康奈尔大学isk22@cornell.edu塞尔日·贝隆吉康奈尔大学sjb344@cornell.edu何浩辉*康奈尔大学hh498@cornell.eduSer-Nam Limsernam@gmail.com顾泽奇康奈尔大学zg45@cornell.edu摘要神经网络很容易受到对抗性示例的攻击,这些示例是为了欺骗训练模型而精心制作的恶意输入。对抗性示例通常表现出黑盒转移,这意味着一个模型的对抗性示例可以欺骗另一个模型。然而,对抗性示例通常过拟合以利用源模型的特定架构和特征表示,从而导致到其他目标模型的次优黑盒转移我们介绍了中级攻击(ILA),它试图通过在源模型的预定层上增加其扰动来微调现有的对抗性示例,以获得更大的黑盒可转移性,从而改进最先进的方法。我们表明,我们可以选择一层的源模型进行扰动,而无需任何知识的目标模型,同时实现高的可移植性。此外,我们提供了一些解释性的见解,我们的方法和优化对抗性的例子使用中间特征映射的效果。1. 介绍标签:EftResNet18对抗示例ILA调整短脚鹎松鼠猴黄鼠狼仓鼠对抗性示例是精心制作的图像的小的、难以察觉的扰动,以欺骗训练模型[30,8]。[14]等研究表明,卷积神经网络(CNN)特别容易受到这种对抗性攻击。这些对抗性攻击的存在表明,我们的架构和训练过程在我们的模型中产生了基本的盲点,并且我们的模型没有学习与人类相同的特征。这些对抗性攻击不仅仅是因为它们提出的理论问题而引起人们的兴趣*同等缴款。图1:ResNet18的预先存在的对抗示例的ILA修改的示例。ILA修改对抗性示例以增加其可转移性。请注意,尽 管 原 始 的 ResNet18 对 抗 示 例 成 功 地 欺 骗 了ResNet18,但它无法欺骗其他网络。然而,对抗性示例的ILA修改更具可转移性,并且能够欺骗更多的其他网络。在现实世界中,它们用于关键任务应用,如在线内容过滤系统和自动驾驶汽车[7,15]。因此,大量的努力ResNet18DenseNet121SqueezeNetAlexNetIlaResNet18DenseNet121SqueezeNetAlexNet4734一直致力于研究对抗性扰动大部分文献都致力于开发使用不同可感知性度量[2,28,26],安全设置(黑盒/白盒)[23,1]以及提高效率的新攻击[8]。对抗性攻击的防御也得到了很好的研究。特别是对抗性训练,其中模型在对抗性示例上进行训练,已被证明在某些假设下是有效的[18,27]。对抗性攻击可以分为两类:白盒攻击和黑盒攻击。在白盒攻击中,模型的信息(即,其结构、梯度信息等)是可访问的,而在黑盒攻击中,攻击者只能访问预测。黑盒攻击是现实世界应用程序的更大关注点,原因很明显,这些应用程序通常不会公开披露它们的模型,尤其是当安全性受到关注时(例如,社交媒体中基于CNN的不良内容过滤器)。因此,黑盒攻击主要集中在对抗性示例的可转移性上[17]。此外,使用白盒攻击生成的对抗性示例有时会成功攻击不相关的模型。这种现象被称为然而,黑盒攻击的成功率几乎总是低于白盒攻击的成功率,这表明白盒攻击在源模型上过拟合不同的对抗性攻击以不同的速率传输,但它们中的大多数并没有针对可传输性进行专门的本文的目的是实现一个给定的对抗性的例子,增加可移植性的目标为此,我们提出了一种新的方法,通过检查其在中间特征图中的表示来微调给定的对抗性示例,我们称之为中间级攻击(ILA)。我们的方法基于两个主要的直觉。首先,虽然我们并不期望原始对抗性攻击找到的方向是最佳的可转移性,但我们确实期望它是一个合理的代理,因为它仍然比随机噪声传输得更好。因此,如果我们正在寻找一种更具可转移性的攻击,我们应该愿意偏离原来的攻击方向,以换取增加范数1。然而,从随机噪声对神经网络的无效性来看,本质上联系在一起2.然而,如果我们检查中间特征图,感知性(在图像空间中)不再固有地与中间特征图中的范数相联系,并且我们可以在图像空间中的感知性没有变化的我们将研究扰动不同的中间特征映射对可转移性的影响,并提供从经验观察中得出的见解。我们的贡献如下:• 我们提出了一种新的方法,ILA,通过增加模型的预定层上的扰动来增强黑盒对抗可转移性我们...管道一个彻底的评估,显示我们的方法改进后,国家的最先进的方法对多个模型,跨多个数据集。参见第4.第一章• 我们介绍了一个程序,由经验观察指导,选择一个层,最大限度地提高了transferability单独使用的源模型,从而避免在超参数优化过程中需要对传递模型进行评估。参见第四点二。• 此外,我们还提供了使用中间特征映射优化对抗性示例的效果的解释性见解。参见第五、2. 背景及相关工作2.1. 一般对抗性攻击通过增强图像来生成给定模型的对抗性示例,大多数先前生成对抗性攻击示例的工作都集中在通过输入空间干扰softmax输出空间[8,18,21,6]。一些代表性的白盒攻击如下:基于梯度的方法快速梯度符号方法(FGSM)[8]生成一个具有更新规则的对抗性示例原始方向将导致有效性的降低x′=x+·sign(xJ(x,y))因此,我们必须平衡保持接近原来的方向和增加规范。一种自然的方法是最大化它是最大化问题投射到初始对抗扰动上。第二,我们注意到,虽然对于可转让性,Max|x′−x|<ǫ J(M(x′),y)我想牺牲一些方向以换取增加规范,我们无法在图像空间中这样做而不改变可感知性,因为规范和可感知性其中x表示原始图像;x’是对抗示例;y是真实标签;J是损失函数;M是直到最终softmax层的模型 它的迭代版本(I-FGSM)迭代地应用FGSM [15]。直观地,1具有较高范数的扰动通常更有效,考虑到-层更少(对于黑盒攻击也是如此)。2在标准球约束下。4735LLL这通过增加其损失来愚弄模型,这最终导致错误分类。换句话说,它发现在最后一层的损耗梯度的方向上的扰动(即,softmax层)。基于决策边界的方法Deepfool [21]通过逐步接近最近的决策边界来迭代地产生近似最接近的对抗示例Universal Adversarial Perturbation [20]使用这个想法来制作一个图像不可知的扰动,将数据集的大部分图像推模型包围攻击上面提到的方法被设计为仅在它们被调整为攻击的模型上产生最佳性能;通常,生成的对抗性攻击模型会被攻击。实例不转移到其他模型。相比之下,[17]提出了基于模型的集成攻击,通过避免依赖任何特定模型来更好地传输它使用具有softmax输出的k个模型,表示为J1,.. .,Jk,并求解选择最大化所有层之间的差异的范数。此外,与他们生成全新对抗性示例的方法不同,我们的方法微调了现有的对抗性示例,使我们能够利用现有的对抗性攻击。3. 方法基于引言中提出的动机,我们提出了中级攻击(ILA)框架,如算法2所示。我们提出了以下两个变量,其损失函数L的定义不同。注意,我们将Fl(x)定义为给定输入x的网络F的第l层的输出。要求:数据集x中的原始图像;通过基线攻击为x生成的对抗示例x′;计算中间层输出的函数F l; L∞界;学习率lr;迭代次数n;损失函数L。min|x′−x|<ǫ -日志.Σki=1Σαi Ji( x′)1y+ λd(x,x′)1:过程ILA(x′,Fl,,lr,L)2:x′′=x3:i= 0使用这种方法,作者表明不同CNN的决策边界彼此对齐。因此,一个对抗性的例子,愚弄多个英文名:WhileI NDo5:y′=Fl(x′)−Fl(x)6:y′′=Fl(x′′)−Fl(x)′′ ′′′ ′′模型也可能欺骗其他模型。2.2. 中间层对抗性攻击少数研究集中在扰动中间层输出。这些包括[22],它通过制作一个单一的通用扰动来扰动中间层激活,该扰动产生尽可能多的虚假中间层激活另一种是特征敌手攻击[32,25],它通过最小化内部神经网络层(而不是输出层)中两个图像然而,它不是强调对抗性的可转移性,而是更注重内部表征。结果表明,即使给定一个引导图像和一个不同的目标图像,它是可能的扰动目标图像产生类似的嵌入的引导图像。另外两个相关的作品[12,24]专注于扰动中间激活图,以增加对抗性可转移性,方法类似于[32,25],但它们专注于黑盒可转移性。他们的方法并不专注于微调现有的对抗性7:x=x−lr·sign(<$x′′L(yl,yl))8:x′′=clip(x′′−x)+x9:x"=剪辑图像范围(x")10:i=i+ 111:结束while12:返回x′′13:结束程序图2:中级攻击算法3.1. 中级攻击投射(IADO)损失给定攻击方法A对自然图像x生成的对抗性示例x′,我们希望通过关注给定网络F的层l来增强其可传递性。虽然x′不是可转移性的最佳方向,但我们将x′视为该方向的提示。 我们对待y′=Fl(x′)−Fl(x)作为一个方向性的指导,朝向更具对抗性的方向,重点是干扰在LayerL.我们的攻击将试图找到一个x′′,∆y′′=Fl(x′′)−Fl(x)匹配∆y′的方向,而示例和攻击方法从我们的使该方向上的扰动范数高级的想法是我们要最大化proj∆y′∆y′另一个最近的工作,检查中间层ll为了增加可转让性,是TAP [33]。TAP攻击试图在所有层上最大化原始图像x和对抗样本x'之间的范数与我们的做法相反,他们不试图采取广告-第1节所述原因。 因为这是一个max-最小化,我们可以忽略常数,这就是点积。我们解决的目标如下所示,我们称之为ILA投影损失:而是利用特定图层的要素制图表达L(y′,y′′)=−∆y′′·∆y′(一)Ll l l47363.2. 中级攻击灵活(ILAF)损失由于图像x’可能不是我们要优化的最佳方向,因此我们可能希望给予上述损失更大的灵活性。我们通过显式地平衡范数最大化和对层l处的对抗方向的保真度来做到这一点。我们注意到,在粗略的意义上,ILAF正在优化与ILAP相同的东西。我们通过从幅度中分离出对抗方向的维持来增加上述损失,并使用附加参数α来控制权衡,以获得以下损失,称为ILA灵活损失:L( y′,y′′)=A在10次迭代之后作为参考对抗示例。学习率设置为0。002用于I-FGSM和MI-FGSM4.在第4.2节中,我们还展示了我们可以仅使用源模型来选择一个接近最优的可移植层此外,ILAF允许进一步调整,以提高跨层性能(第4.3节)。最后,我们证明了ILAP还在ImageNet [5]的更复杂设置下提高了可转移性,并且它取代了专注于提高可转移性的最新攻击,即Zhou等人。攻击(TAP)[33]和谢等人。攻击[31](第4.4节)。Lǁ∆y′′ ǁ2L∆y′′∆y′4.1. 针对不同L值的ILAP-α·l-l·l(二)∆y′ǁ∆y′′ǁ2ǁ∆y′ǁ2`阿盖尔x最大扰动3.3. 攻击`llx保持原来的方向为了确认我们的攻击的有效性,我们修复了一个单一的源模型和基线攻击方法,然后检查与基线攻击相比,入侵是如何转移到其他模型的。ResNet18作为源模型在实践中,我们选择ILAP或ILAF损失并迭代n次以获得相应最大化目标的近似解。 注意,投影损失只有层l作为超参数,而柔性损失也有额外的损失权重α作为超参数。上述攻击假设x′是预先生成的对抗性示例。因此,攻击可以被视为对抗性示例x′的微调。我们在第l层微调输出差异的更大范数(我们希望这将有利于更大的可转移性),同时试图保持输出差异4. 结果我们首先表明,在CIFAR-10的背景下,ILAP增加了针对I-FGSM、MI-FGSM [6]和Carlini-Wagner [4]的可转移性(第4.1和4.2节)。FGSM和Deepfool的结果见附录A3。 我们在各种型号上进行测试,即:[18][19] 体系结构详情见附录A;注意,在下面的结果部分中,不是引用架构特定的层名称,而是引用层索引(例如,l= 0是第一块的最后一层)。我们的模型在CIFAR- 10 [13]上使用[ 16 ]中的代码和超参数进行训练,最终测试精度 为 94 。 8% 为 ResNet18 , 94 。 SENet18 , 95.DenseNet121为6%,94. 9%的GoogLeNet。为了公平比较,我们使用运行20次迭代的攻击A的输出作为基线。ILAP使用attack的输出从头开始运行10次迭代和I-FGSM作为基线方法的结果如图3所示。比较这两种方法在其他模型上的结果,我们发现,当针对任何给定的中间层时,Icons的性能优于I-FGSM,并且对于l= 4的最佳超参数值做得特别好。请注意,层的选择对于源模型和目标模型的性能都很重要。完整结果见附录A。基于Resnet 18的I-FGSM和ILAP攻击7060504030201000 1 2 3 4 5 6层索引图3:ResNet 18上的I-FGSM与I-FGSM的传输结果,由DenseNet 121、SENet 18和GoogLeNet在CIFAR-10上测量(准确度较低表示攻击较好)。3我们重新实现了除Deepfool之外的所有攻击原始的公开提供的实现。对于C W,我们使用了随机化的目标版本,因为它具有更好的性能。4调整学习率不会对可移植性产生实质性影响,如附录G所示。ResNet18ResNet18智能手机DenseNet121DenseNet121ILAPSENet18GoogLeNetGoogLeNet ILAPSENet18 I攻击后的准确性4737LLL2.22.01.81.61.41.21.0ResNet18上的Iteration扰动图层0层1层2层3层4层5层60 1 2 3 4 5 6层索引. ǁ∆y′′ǁ2Σ图中的最新峰值通常是所有已转移模型的可转移性最高的峰值(表2)。鉴于这一观察结果,我们提出,仍然表现出峰值的最新l是l的接近最优值(就最大化可转移性而言)。例如,根据图4,我们将选择l= 4作为ResNet18作为源模型的Icons表2支持我们的主张,并表明选择此层可以提供最佳或接近最佳的攻击。我们将在5.3节讨论我们发现的对这种方法的解释性见解。4.3. ILAF与ILAP图4: 干扰值L∆y′在每一层,以层1 = 0,1,…6为ResNet18。观察图例中的l指的是在Ijs攻击中设置的超参数,然后在x轴中的l所指示的层上计算干扰值注意,最后一个峰值由1=4ILAP攻击产生。表1:ILAP与最先进的传输攻击TAP [33] DI2-FGSM [31]转移20 Itr选择ILAP20 ItrOpt ILAP Inc-v436.3%15.2% 50.2%26.7%IncRes-v240.7%百分之二十点一百分之五十四点六29.3%†与源模型相同。表1. 与表2中的实验相同,但使用TAP和D12-FGSM,来自Xie等人[31 ]第30段。使用5000个随机选择的ImageNet验证集图像进行评估,并且= 0。06. 使用的源模型是Inc-v3,为Icons指定的目标层是Conv 2d4a3x 3。4.2. 具有预先确定的L值的ILAP以上我们证明了由ILAP产生的对抗性示例在针对特定层(即,选择层作为L超参数)。我们希望仅基于源模型来预先确定该最佳值,以便避免通过对其他模型进行评估来调整超参数l要做到这一点,我们研究的可转移性和ILAP层的干扰值之间的关系定义了ILAP攻击扰动的扰动值我们表明,ILAF可以进一步提高可转移性加上可调超参数α。如表3所示,每个模型的最佳ILAF结果都优于ILAF。然而,请注意,每个模型的最佳α都不同,需要大量的超参数调整才能超过Imax。因此,ILAF可以被看作是一个更特定于模型的版本,需要更多的调优,而ILAP开箱即用完整结果见附录C。4.4. ImageNet上的ILAP我 们 还 在 ImageNet 上 测 试 了 Icons , ResNet18 ,DenseNet121,SqueezeNet和AlexNet在ImageNet上预训练 ( 如 [19] 中 所 提 供 的 所 有 攻 击 的 学 习 率 对 于 I-FGSM,学习速率被设置为0。008,对于I-FGSM为0时的Icycle。01,对于MI- FGSM为0。018,并且对于具有MI-FGSM的ILAP为0。018.为了评估可移植性,我们测试了不同模型在所有50000个ImageNet测试图像生成的对抗性示例上的准确性我们观察到ILAP在ImageNet上比I-FGSM和MI-FGSM有所改进ResNet 18作为源模型和I-FGSM作为基线攻击的结果如图5所示。完整结果见附录D。为了证明我们的方法优于现有的方法,我们在ImageNet设置中测试了TAP [33]5和Xie等人的ILAP结果示于表17中。5. 解释中间层强调的有效性在高层次上,我们激励在中间特征图中投影,作为增加可转移性的一种方式。我们x′′ 作为函数f(l)的值=ǁ∆y′′ǁ2ǁ∆y′ǁ2 的所有值经验地看到,期望以层cor.com为目标响应源上的最新峰值(参见图4)l在源模型中。对于ResNet18中的l的每个值(在附录A中为每个体系结构定义了一组l),我们在图4中绘制了相应的干扰攻击的干扰值。附录B中给出了其他型号的相同图。我们注意到,产生5代码没有提供给本文,因此我们复制了他们的方法,以最好的我们的能力。Inc-v3,Inc-v4和IncRes-v2的6个7在CIFAR-10上,表明Icadine与TAP具有竞争力的结果见附录H。扰动4738表2:免疫结果MI-FGSMC W源转移20 Itr10 Itr Istvan 选择ILAP1000 Itr500 Itr Ikuh选择ILAPResNet18†百分之五点七百分之十一点三2.3%(6)百分之七点三百分之五点二2.1%(5)ResNet18SENet18百分之三十三点八百分之三十点六30.6%(4)85.4%41.7%41.7%(4)(l= 4)DenseNet121百分之三十五点一百分之三十点四30.4%(4)百分之八十四点四41.7%41.7%(4)GoogLeNet百分之四十五点一百分之三十七点七37.7%(4)百分之九十点六57.3%57.3%(4)ResNet1831.0%27.5%27.5%(4)87.5%百分之四十二点七42.7%(4)SENet18SENet18†百分之三点三10.0%2.6%(6)6.2%百分之七点三3.1%(5)(l= 4)DenseNet12131.6%百分之二十七点三27.3%(4)百分之八十八点五38.5%38.5%(4)GoogLeNet41.1%34.8%34.8%(4)百分之九十一点七52.1%52.1%(4)ResNet18百分之三十四点四28.1%28.1%(6)87.5%百分之三十七点五37.5%(6)DenseNet121SENet1833.5%百分之二十七点七27.7%(6)百分之八十六点五百分之三十四点四34.4%(6)(l= 6)DenseNet121†百分之六点四4.0%0.8%(9)二点一厘百分之零点零0.0%(9)GoogLeNet百分之三十六点三30.3%30.3%(6)百分之九十点六45.8%45.8%(6)ResNet18百分之四十四点六百分之三十四点五33.2%(3)89.6%63.5%60.4%(7)GoogLeNetSENet1843.0%33.5%32.6%(3)百分之九十点六百分之五十三点一53.1%(9)(l= 9)DenseNet12138.9%百分之二十九点二28.8%(3)89.6%百分之五十八点三51.0%(8)GoogLeNet†百分百分之一 0.5%百分之百分之0.0%4739之一点五点四(11)四点二零点零(12)†与源型号相同。表2.显示了模型攻击后的准确度(较低的准确度表示较好的攻击)。超参数l在根据层扰动图(例如,对于ResNet 18设置l= 4,因为它是图4中的最后一个峰值)。 也许令人惊讶的是,Icons也击败了对原始模型的基线攻击表3:IUD与ILAF模型最佳(best)ILAF(最佳)DenseNet121百分之二十七点七百分之二十六点六GoogLeNet百分之三十五点八34.7%SENet1827.5%百分之二十六点三表3.在这里,我们展示了Iprone与使用ResNet18生成的ILAF(具有两种攻击的最佳超参数)。基于Resnet 18(ImageNet)的70605040302010模型,以最大限度地提高可转移性。在本节中,我们将尝试解释导致不同层的Iprone性能不同的因素,以及它们对Iprone的最佳层 当我们遍历层索引时,有两个因素影响我们的性能:原始扰动方向和最佳传输方向(在下文第5.1节中定义)之间的角度以及模型决策边界的线性。下面,我们将讨论这些因素如何跨层变化并影响我们的攻击的可转移性。00 1 2 3 4 5 6层索引图 5 : 在 ResNet 18 上 , 通 过 ImageNet 上 的 DenseNet121、SqueezeNet和AlexNet测量的Ifos相对于I-FGSM的转移结果(较低的准确度表明较好的粘性)。ResNet18ResNet18智能手机DenseNet121DenseNet121IdealexnetSqueezeNet1.0alexnet ILAPSqueezeNet1.0 ILAP攻击后的准确性4740x− x5.1. 最佳转移方向与初始扰动的夹角受[17]的启发(其中显示具有不同架构的模型的决策 边 界 通 常 对 齐 ) , 我 们 定 义 了 最 佳 传 输 方 向(BTD):最佳传输方向:假设x是一个图像,M是一个大的(但有限的)不同CNN的集合找到x′,使得Σ0.70.60.50.4ResNet 18中I-FGSM与多偶I-FGSM扰动x′= arg max1[m(x′)/=m(x)]x ′s。t. |x ′− x |
下载后可阅读完整内容,剩余1页未读,立即下载
![docx](https://img-home.csdnimg.cn/images/20210720083331.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 谷歌文件系统下的实用网络编码技术在分布式存储中的应用
- 跨国媒体对南亚农村社会的影响:以斯里兰卡案例的社会学分析
- RFM2g接口驱动操作手册:API与命令行指南
- 基于裸手的大数据自然人机交互关键算法研究
- ABAQUS下无人机机翼有限元分析与局部设计研究
- TCL基础教程:语法、变量与操作详解
- FPGA与数字前端面试题集锦:流程、设计与Verilog应用
- 2022全球互联网技术人才前瞻:元宇宙驱动下的创新与挑战
- 碳排放权交易实战手册(第二版):设计与实施指南
- 2022新经济新职业洞察:科技驱动下的百景变革
- 红外与可见光人脸融合识别技术探究
- NXP88W8977:2.4/5 GHz 双频 Wi-Fi4 + Bluetooth 5.2 合体芯片
- NXP88W8987:集成2.4/5GHz Wi-Fi 5与蓝牙5.2的单芯片解决方案
- TPA3116D2DADR: 单声道数字放大器驱动高达50W功率
- TPA3255-Q1:315W车载A/D类音频放大器,高保真、宽频设计
- 42V 输入 5A 降压稳压器 TPS54540B-Q1 的特点和应用
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)