没有合适的资源?快使用搜索试试~ 我知道了~
VQA机器:学习使用视觉算法回答问题
1173VQA机器:学习如何使用现有的视觉算法来回答新问题王鹏1,2,吴琦1,3,沈春华2,3,安东·范登亨格尔2,31西北工业大学,中国2澳大利亚阿德莱德大学澳大利亚机器人视觉中心Australian Centre for Robotic Vision摘要视觉问答(VQA)挑战最有趣的特点之一是问题的不可预测性。提取所需的信息来回答他们需要各种各样的图像操作,从检测和计数,分割和重建。训练一个方法来执行这些操作从{image,question,answer}元组中准确地实现它们将是具有挑战性的,但是要以有限的这样的训练数据集似乎是雄心勃勃的。我们在这里提出了一种更通用和可扩展的方法,它利用了这样一个事实,即实现这些操作的非常好的方法已经存在,因此不需要训练。因此,我们的方法学习如何利用一组外部现成的算法来实现其目标,这是一种与神经图灵机[10]有共同之处的我们提出的方法的核心是一个新的共同注意力模型。此外,所提出的方法为其决策生成人类可读的原因,并且仍然可以在没有给出地面真实原因的情况下进行端到端的训练我们在两个公开的数据集Visual Genome和VQA上证明了它的有效性,并表明它在这两种情况下都产生了最先进的结果。1. 介绍视觉提问(Visual Question Question Questioning,VQA)是一个人工智能完成的任务,位于计算机视觉(Computer Vision,CV)和自然语言处理(NaturalLanguage Processing,NLP)的交叉点。目前的VQA方法主要基于图像特征和问题表示到同一空间中的联合嵌入[3,9,18,22,34,40这种方法的优点之一是它能够利用预先训练的CNN模型。前两个作者对这项工作的贡献相等。图1:我们提出的模型的两个真实示例结果。给定一个图像-问题对,我们的模型不仅会生成答案,还会生成一组原因(作为文本)和视觉注意力地图。问题中的彩色单词有前3个权重,按红色、蓝色和青色排序。注意力地图中的高亮区域指示图像区域上的注意力权重。前3个加权的视觉事实被重新制定为人类可读的原因。对同一图像不同问题的结果进行比较表明,我们的模型可以产生与每个问题的细节相关的高度信息化的原因。与这种联合嵌入方法相比,我们提出了一种基于共同注意力的方法,该方法学习如何使用一组现成的CV方法来回答基于图像的问题。将现有的CV方法应用于图像产生了各种信息,我们标记图像事实。不可避免的是,这些信息中有许多与所问的特定问题无关。因此,注意力机制的部分作用是确定哪些类型的事实在回答问题时有用。VQA机器能够利用一组现成的CV方法来回答问题的事实意味着它不需要学习如何自己执行这些相反,该方法学习预测适当的1174算法的组合,以响应于令人讨厌的看不见的问题和图像来利用因此,它代表了向能够学习解决问题的算法的神经网络迈出的在这个意义上,它与神经转向机[10](NTM)相当,其中RNN被训练为使用关联记忆模块来解决其更大的任务。我们提出的方法不会改变它使用的外部模块的参数,但它能够利用更广泛的模块类型。为了使VQA机能够利用各种可用的CV方法,并提供一个紧凑,但灵活的接口,我们制定的视觉事实为三元组。这种方法的优点有三个方面。首先,许多相关的现成CV方法产生的输出可以重新表示为三元组(见表1)。①的人。其次,这种紧凑的格式是人类可读的,可解释的.这使我们能够提供人类可读的原因以及答案。参见图1的示例。 最后,提出的三元组表示类似于一些知识库中使用的三元组表示,如猫,吃,鱼>。<因此,该方法可以扩展以接受来自这些源的信息。为了选择与回答特定问题相关的事实这是通过扩展Lu等人的方法来实现的。[16],提出了一种共同注意机制,共同对图像和问题进行推理,也对一组事实进行推理具体来说,我们设计了一个顺序的共同注意机制(见图)。3)其旨在确保注意力可以在所有三种形式的数据之间有效地传递。因此,初始问题表示(没有注意)首先用于指导事实加权。然后将加权事实和初始问题表示相结合以指导图像加权。然后,加权的事实和图像区域被联合用于引导问题注意机制。剩下的就是再次运行事实注意力,但是由问题和图像注意力权重来通知,因为这完成了循环,并且意味着每个注意力过程都可以访问所有其他注意力过程的输出所有的加权特征被进一步送入一个多层感知器(MLP)来预测答案。这种方法的优点之一是问题、图像和事实被一起解释,这特别意味着从图像中提取的信息(并表示为事实)可以指导问题解释。一个问题,如“谁在用望远镜看这个人?”'当与一个拿着望远镜的人的图像相结合时,意味着不同的东西,而不是通过望远镜看到的人的图像我们的主要贡献如下:• 我们提出了一个新的VQA模型,该模型能够学习自适应地结合多种现成的CV方法来回答问题。• 为了实现这一点,我们将共同注意力机制扩展到更高阶,能够共同处理问题,图像和事实。• 我们提出的方法不仅生成对所提出的问题的答案,而且还生成一组支持信息,包括视觉(注意力)推理和人类可读的文本原因。据我们所知,这是第一个VQA模型,能够在自由形式的开放式视觉问题上输出人类可读的原因• 最后,我们在两个VQA数据集上评估了我们提出的模型。我们的模型在两个方面都达到了最先进的水平例人类协议的研究进行评估的原因生成能力,我们的模型。2. 相关工作最新的方法是基于使用深度神经网络的图像和问题的联合嵌入实际上,图像表示是通过预先训练的CNN获得的。这个问题通常通过RNN传递,它产生一个固定长度的向量表示。这两个表示被联合嵌入到同一个空间中,并输入到预测最终答案的分类器中。许多以前的作品[3,9,18,22,32,40]采用了这种方法,而一些[8,13,23]则提出了对这种基本思想的修改。然而,这些修改要么专注于开发更先进的嵌入技术,要么采用不同的问题编码方法,只有很少的方法真正旨在改善可用的视觉信息[20,29,34]。这似乎是一个令人惊讶的情况,因为VQA可以被视为涵盖了绝大多数CV任务(例如,通过将任务措辞为问题)。很难想象一个预先训练的CNN模型(如VGG [25]或ResNet[11])可以满足所有这些任务,或者能够恢复所有所需的视觉信息。相比之下,我们在这里提出的方法能够利用已经存在的大量方法从图像中提取有用的信息,因此不需要学习从不适合该任务的数据集执行这些操作。注意力机制不是直接使用CNN的全连接层的整体全局图像嵌入,最近的几项工作[12,16,24,37,38,41]已经探索了VQA的图像注意力模型。具体来说,特征图(通常是预先训练的深度CNN的卷积层)与问题一起使用,以确定反映图像最相关区域的空间权重。最近,Luet al. [16]确定图像区域和问题词上的注意力权重。在我们的工作中,我们将共同注意力扩展到更高的层次,以便图像,问题和事实可以共同加权。1175{qw,vw,fw}αwF{qp,vp,fp}αpF{qq,vq,fq}αqFtop-N事实+排名MLP共同关注共同关注共同关注问:女孩在做什么?视觉事实:图片:答: 骑马•图像包含马的对象原因·图像包含动作骑马•女孩在马上图2:拟议的VQA模型。输入的问题,事实和图像特征的加权在三个问题编码水平。给定所有级别的共同加权特征,多层感知器(MLP)分类器用于预测答案。然后,排名的事实被用来生成原因。神经模块网络(NMN)是由Andreas等人提出的。在[1,2]中。在NMN中,问题解析树被转换为来自预定义集合的模块的集合,然后这些模块用于回答问题。动态记忆网络(DMN)[36]检索回答问题所需的与NMN和DMN相比,我们的方法使用了一组不依赖于问题的外部算法。使用的算法集更大,然而,组合它们的输出的方法更灵活,并且根据问题、图像和事实而变化显式推理大多数VQA方法的局限性之一是无法区分作为图像内容的结果而出现的答案和因为它在训练集中频繁出现而选择的答案[27]。这对该技术的实际应用是一个重大限制,特别是在医学或国防领域,因为它使人们不可能对所提供的答案有任何信心。这个问题的一个解决方案是提供人类可读的推理来证明或解释答案,这一直是神经网络的长期目标(例如,参见[7,28])。Wang等人[30]提出了一个名为“Ahab”的VQA框架然而,这种方法仅限于手工制作的问题模板集. FVQA [31]使用LSTM和数据驱动的方法来学习图像/问题到RDF查询的映射,但只考虑与指定知识库相关的问题在这项工作中,我们采用注意力机制提供的事实事实被公式化为人类可理解的结构三元组,并进一步处理成人类可读的理由。到达贝斯特据我们所知,这是第一种可以为开放式VQA问题提供人类可读原因的方法人类协议研究报告在第二节。4.2.3它展示了这种方法的性能。3. 模型在本节中,我们将介绍所提出的VQA模型,该模型将问题、图像和事实作为输入,并输出具有排名原因的预测答案整体框架工作在第二节中描述。3.1,而3.2演示了如何使用所提出的顺序共同注意模型来联合嵌入三种类型的输入最后,用于生成答案和原因的模块在第二节中介绍。三点三在下文中,矩阵由粗体大写字母表示,列向量由粗体小写字母表示[a; b]垂直连接向量a和b,而[a,b]水平堆叠a和b我们省略了神经网络中的偏置项。3.1. 总体框架整个模型如图所示。二、第一步是将输入的问题编码为三个不同的级别。在每个层次上,问题特征通过所提出的顺序共同注意模型与图像和事实联合嵌入。最后,使用多层感知器(MLP)基于输出来预测答案(即,加权的问题、图像和事实特征)。理由是通过对加权的事实进行排序和重新表述而产生的。分层问题编码我们采用一种等级制度-[16 ]第16话有效的解决问题从一个问题在多个尺度,即信息。词、短语和句子水平。首先,问题词的独热向量Q =[q1,. . . ,qT]分别嵌入到连续向量Qw=[qw,. . . ,qw],使用线性变换,1TQwQpQQFVLSTM一维转换格式化事实嵌入CNNs单词嵌入<_img_contain马><_img_att骑马><人控股绳索><女孩对马><人与马>………1176QFV输入序列Atten(F,q<$0,0)Atten(Q,0, 0)v~q~~fAtten(F,v,q)Atten(Q,v,vf0)Atten(V,q<$0,nf0)12三重峰示例(img,scene,img scn)(img,scene,office)(img,att,img att)(img,att,wedding)(img,contain,obj)(img,contain,dog)(obj,att,obj att)(shirt,att,red)(obj1,rel,obj2)(man,hold,umbrella)表1:三胞胎代表的事实。img、scene、att和container是特定标记。而img scn、obj、img att、obj att和rel是指描述图像场景、对象、图像/对象属性和对象之间的关系的词汇表一个tanh函数后的mation 然后,将具有不同过滤器大小(一元语法、二元语法和三元语法)的1-D卷积应用于单词级嵌入Qw,随后在每个单词位置处的不同过滤 器 上 进 行 最 大 池 化 , 以 形 成 短 语 级 特 征Qp=[qp,. . . ,qp]。最后,q=00经加权的特性1T短语级特征进一步由LSTM编码,导致问题级特征Qq=[qq,. . . ,qq]。图3:顺序共同注意模块。给定特征序列1T对于问题(Q)、事实(F)和图像(V),该模块依次编码图像区域在[16,38]之后,输入图像被调整为448×448并划分为14×14区域。VGG-19[25]或ResNet-100[25]网络的最后一个池化层的相应区域被提取,并使用端到端学习的线性转换后的tanh函数。输出是V=[v1,. . . ,vN](N = 196)作为图像特征。生成加权特征(v,q,f)。五个注意力模块中的每一个中的运算被表示为x∈N=Atten(X,g1,g2),可以表示为:Hi= tanh(Wxxi+Wg1g1+Wg2g2),(1a)α=softmax(w≠H),i =1,. . . ,N,(1b)编码事实在这项工作中,我们使用三元组的形式(主体,关系,对象)来表示图像中的事实,其中主体和对象表示两个视觉我x~= ΣNi=1我αixi,(1c)概念和关系表示这两个概念之间的关系这种三元组格式非常通用,广泛用于大规模结构化知识图(如DBpedia [4],Freebase [5],YAGO [17]),以记录各种各样的信息。在这项工作中,我们考虑如表1所示的5种类型的视觉事实,其分别记录关于场景、对象、对象属性、图像属性和两个对象之间的关系的信息。 事实(三元组)被编码为f=tanh([Wses; Wrer; Woeo]),其中es、er和eo分别是表示主语、关系或宾语的独热向量。WS、Wr和Wo是要学习的线性变换权重。 通过应用不同类型的视觉模 型 , 我 们 实 现 了 编 码 的 事 实 特 征 列 表 F=[f1,. . . ,fM],其中M是事实的数量。 注意,该方法可以容易地扩展到使用任何现有的视觉方法来提取图像信息,该图像信息可以被有用地记录为三元组,或者甚至更一般地,包括附加信息的n元组,诸如配置信息。其中X是输入序列(即, Q,F或V),和g1,g2∈Rd表示作为先前×d注意力模块。Wx,Wg,Wg∈Rh和w∈Rh是要学习的线性嵌入参数。 这里h表示注意力模块的隐藏层的大小在这项工作中,所有的问题,图像和事实特征都嵌入到d维矢量中,即,Q∈Rd×T,V∈Rd×N,F∈Rd×M.α是输入的注意力权重序列,x是特征的加权和在提出的共同注意力方法中,编码的问题/图像/事实特征(见第二节)。3.1)被顺序地馈送到注意模块(Eqn.1)作为输入序列,并且来自前两个步骤的加权特征用作指导。首先,在没有任何指导的情况下,对问题特征进行求和(q∈0=Atten(Q,0,0)). 在第二步,基于以下对事实特征进行加权:概括的问题特征(f0=Atten(F,q<$0,0))。接下来,使用加权事实特征和概括问题特征得分和数据来源。作为指导(v=Atten(V,q∈0,nf0))。 在步骤4(q=3.2. 序贯共注意为了适应多个信息源(问题、图像、事实),所提出的共同关注方法使用其他特征作为指导,依次生成每个特征类型的关注权重,如图3所示。任务-1177Atten(Q,v,qf0))和步骤5(qf=Atten(F,v,q)),基于输出对的前几步。最后,利用加权的问题/图像/事实特征(q,f,v)进一步进行答案预测和最后一个注意力模块的注意力权重αf用于生成原因。11783.3. 答案预测和原因生成类似于许多以前的VQA模型[16,21,22,40],答案预测过程被视为多类分类问题,其中每个类对应于不同的答案。考虑到从单词/短语/问题级别生成的加权特征,多层分类器(MLP)用于分类:基因组数据集(即,图像场景和图像属性)。这些视觉模型的softmax分数的保留值设置为0。4和平均76个事实(范围从9到150)被提取为每个图像。预测事实的得分被添加作为事实特征f的附加维度。在我们的系统中,编码的问题/图像/事实特征的维度d和隐藏层.Σhwww(2a)共同注意力模型的大小h(参见等式(1)两者都设置为= tanh Ww(q+ v+ f),hp.萨普布雷普wh, (2b)512对于事实,主体/关系/客体实体= tanh Wp(q +v.Σ+ f); hΣΣ分别嵌入到128/128/256维矢量中,hq=tanhWq(q<$q+v<$ q+vfq);hp、(2c)有效地并连接以形成512-D矢量。我们使用p = softmax(Whhq),(2d)其中{qw,vw,fw}、{qp,vp,fp}和{qq,vq,fq}是来自所有三个级别的加权特征。Ww、Wp、Wq和Wh是参数,p是概率向量。如图2、注意力的权重来自所有的事实三个水平(αw,αp,αq)相加在一起。则两层LSTM模型,隐藏大小为512。为在Eq.(2),hw和hp的维数也是512,而hq的维数对于VQA数据集设置为1024,对于Visual Genome数据集设置为2048对于预测,我们采用VQA数据集的前3000个答案和Visual Genome数据集的前5000个答案的整个系统在Torch7 [6]上实现并训练f f f排名前3的事实被自动公式化(通过简单的基于规则的方法,见补充资料),以人类阅读-能的句子,并被认为是理由。4. 实验我 们 在 两 个 数 据 集 上 评 估 我 们 的 模 型 , VisualGenome QA [14]和VQA-real [3]。Visual Genome QA包含 108 , 077 张 图 像 上 的 1 , 445 , 322 个 由 于 VisualGenome数据集的官方拆分尚未发布,因此我们随机生成自己的拆分。在这个分割中,我们有723,060个训练,54,506个验证和667,753个测试问题/答案示例,基于54,038个训练,4,039个验证和50,000个测试图像。VQA数据集[3]是最广泛使用的数据集之一,它包括两部分,一部分使用自然图像,另一部分使用卡通图像。在本文中,我们只在真实图像子集上评估我们的模型,我们将其标记为VQA-real。VQA-real包含123287张训练图像和81434张测试图像。4.1. 实现细节事实提取使用Visual Genome数据集的训练分割,我们训练了三个朴素的多标签CNN模型来提取对象,对象属性和对象-对象关系。具体来说,我们基于VisualGenome的注释提取形式为(img,contain,obj)/(obj,att,obj att)/(obj 1,rel,obj2)的三元组分别选择前5000/10000/15000个三元组并用作类标签。然后,我们将它们表示为三个独立的多标签分类问题,使用元素逻辑损失函数。预训练的VGG-16模型用作初始化,并且仅对完全连接的层进行微调。我们还使用了[39]的场景分类模型和[32]的图像属性模型来提取不包括在视觉端到端,但具有固定的CNN功能。 为了优化,RMSProp方法的基本学习率为2×10−4,动量为0。九十九。该模型最多训练256个epoch,直到验证误差在最近5个epoch中没有改善。4.2. Visual Genome QA我们使用准确度值和Wu-Palmer相似性(WUPS)[35]来衡量Visual Genome QA的性能(见表2)。在比较之前,所有的回答都被删除,数字转换为数字,标点符号被删除。还报告了根据问题类型的准确性。基线和最新技术水平第一基线方法是Antol等人的VGG+LSTM。在[3]中,他使用两层LSTM来编码问题,并使用VGG的最后一个隐藏层[25]来编码图像。然后对图像特征进行归一化。我们使用作者提供的代码 1 在 Visual Genome QA 训 练 分 割 上 训 练 模 型VGG+Obj+Att+Rel+Extra+LSTM使用与VGG+LSTM相同的配置,只是我们将VGG-16模型(fc 7)提取的额外图像特征串联起来,这些特征已经在上一节中描述的不同CV任务上进行了预训练。HieCoAtt-VGG是[16]中提出的原始模型,这是当前的最新技术水平。作者4.2.1消融研究与地面实况在本节中,我们进行了一项消融研究,以评估纳入不同类型事实的有效性。为了避免由于预测事实的准确性不同而导致的偏差,我们使用了地面实况1https://github.com/VT-vision-lab/VQA LSTM CNN2https://github.com/jiasenlu/HieCoAttenVQA网站1179准确度(%)WUPS(%)方法什么哪里当谁为什么总体如何整体(60.5%)(17.0%)(3.5%)(5.5%) (2.7%)(10.8%)@0.9@0.0VGG+LSTM [3]35.1216.3352.7130.0311.5542.6932.4638.3058.39VGG+Obj+Att+Rel+Extra+LSTM36.8816.8552.7432.3011.6544.0033.8839.6158.89[16]第十六话39.7217.5352.5333.8012.6245.1435.9441.7559.97Ours-GtFact(目标)37.8217.7351.4837.3212.8443.1034.7740.8359.69我们的-GtFact(目标+属性)42.2117.5651.8937.4512.9343.9037.5043.2460.39Ours-GtFact(目标+相关)38.2518.1051.1338.2212.8643.3235.1541.2559.91Ours-GtFact(对象+属性+关系)42.8618.2251.0638.2613.0244.2638.0643.8660.72Ours-GtFact(对象+属性+关系)+VGG44.2818.8752.0638.8712.9346.0839.3044.9461.21我们的预测事实(对象+属性+关系)37.1316.9951.7033.8712.7342.8734.0139.9259.20我们的预测事实(对象+属性+关系+额外)38.5217.8651.5534.6512.8744.3435.2041.0859.75我们的预测事实(对象+属性+关系)+VGG40.3417.8052.1234.9812.7845.3736.4442.1660.09我们的预测事实(对象+属性+关系+额外)+VGG40.9118.3352.3335.5012.8846.0436.9942.7360.39表2:Visual Genome QA数据集上的消融研究。显示了不同问题类型的准确性。每种类型问题的百分比显示在括号中。我们还计算了不同模型在0.9和0.0时的WUPS。Visual Genome数据集提供的事实作为我们提出的消融测试模型的输入。GtFact(Obj)是我们提出的共同注意模型的初始实现,仅使用该模型在测试分割上的总体准确率为34.77%,已经超过了基线模型VGG+LSTM。然而,该模型与HieCoAtt-VGG(35.94%)之间仍然存在差距,后者将共同注意力机制应用于问题和整体图像特征。考虑到图像特征在现阶段仍然没有被使用,这个结果是合理的。在此基础上,我们分别添加了表2显示,前者的表现优于后者(37.50% vs. 35.15%),尽管两者的表现都优于以前的“对象”模型。这表明“属性”事实比“关系”事实更有效。然而,当涉及到以“where”和“who”开头的问题时,GtFact(Obj+Rel)的表现略好(18.10%vs. 17.56%,38.22%vs.37.45%),表明“关系”事实在这类问题中起着更重要的作用。这是有意义的,因为<
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)