没有合适的资源?快使用搜索试试~ 我知道了~
逆向众包的空间关系识别基准:SpatialSense
2051空间感知:一个面向逆向众包的空间关系识别基准杨凯宇普林斯顿大学kaiyuy@cs.princeton.edu奥尔加·鲁萨科夫斯基普林斯顿大学olgarus@cs.princeton.edu普林斯顿大学jiadeng@cs.princeton.edu摘要理解图像中对象之间的空间关系是一项令人惊讶的挑战性任务(图1)。①的人。一把椅子可能在在图像中看起来彼此靠近的两个学生可能实际上并不“紧挨着”彼此,如果在他们之间存在第三个学生的话我们介绍了SpatialSense,一个专门从事空间关系识别的数据集SpatialSense是通过对抗性众包构建的,其中人类标注员的任务是使用简单的线索(如2D空间配置或语言先验)来寻找难以预测的空间关系。对抗性众包显著降低了数据集偏差,并与现有数据集相比,在长尾中采样了更多有趣的关系。在SpatialSense上,最先进的识别模型对简单的基线进行了测试,这表明它们依赖于直接的线索,而不是对这个复杂任务进行充分的推理。SpatialSense基准测试为推进计算机视觉系统的空间推理能力提供了一条途径。数据集和代码可 在 https : //github 上 获 得 。 com/princeton-vl/SpatialSense.1. 介绍对空间的视觉理解对于智能体是必不可少的。这种理解是描述景物和指称物体的基础[7];它也是诸如导航和操纵等任务所需的基础[32]。为了理解空间,重要的是理解空间关系,即不同的空间实体如何相对于彼此配置以组成场景。考虑下面的描述:该句子可以被构造成图1:图像中的空间关系识别是一项挑战性任务,需要深入了解图像中的所有对象、它们的3D配置及其相互作用。要理解狗不在水里(左上),除了狗和水之外,还需要对码头进行推理理解球实际上在孩子的前面,尽管在图像空间中偏右(顶部中心),需要推断3D空间分辨率。正确评估计算机视觉在这项任务中的能力是困难的,因为它需要收集一个涵盖所有此类挑战的基准。我们介绍了SpatialSense,这是一种通过对抗性众包收集的新型数据集,它为空间关系识别任务提供了一个多样化且具有挑战性的测试平台。它有许多不同的方式,但它的意义是由物体(房间,窗户,桌子,花瓶,花)和它们的空间关系(房间里的桌子,窗户下的桌子,靠墙的桌子,桌子上的花瓶,花瓶里的花)决定的。这就提出了空间关系识别的问题:给定场景中的两个物体,它们的空间关系是什么?由于空间关系的语义是丰富而复杂的,因此这个问题是重要的、有趣的和具有挑战性的。对象之间的空间语义不仅依赖于诸如位置、姿态和形状之类的几何属性,而且还依赖于参照系(例如,“left of the car” can落水狗孩子面前的球眼镜男椅上卡车云在山上森林之上的士兵2052暗示身体接触,而空间关系基准。 尽管这个问题很重要,但在空间关系方面还没有专门的基准数据集。大型数据集(如VisualGenome [11]和Visual Relationship Detection [19])为通用视觉关系提供注释,因此包含大量空间关系(分别为51.5%和66.0%)。但是,一些特点使他们不适合评估空间关系识别。一 个 问 题 是 , 例 如 , Visual Genome 和 最 近 的OpenVisual Genome中的每个图像都带有一组人类注释关 系 ( 主 语 - 谓 语 - 宾 语 三 元 组 , 如 “person-riding-bike”),但注释并不详尽,许多有效关系都没有注释。虽然Recall@K度量(在给定K个预测关系的情况下评估地面真值关系的召回率)已被用作避免穷举注释的代理[19,33,14,17,5,34,22,35,31,37,29,30],但它仍然不可能区分产生有效但未注释的预测的好系统和产生假阳性的坏系统,或者完全评估系统当前视觉关系数据集中的另一个问题是显著的语言偏差--示例由可以在没有实际空间理解的情况下猜测的关系主导。例如,在视觉基因组中,66%的空间关系是由一个对象“在”另一个对象上组成的。在涉及表的关系中,89.37%的关系定义了表上的对象这意味着系统可以利用这些先验知识来做得很好,甚至不需要看图像。这是不期望的,因为对这些示例进行评估将不会提供算法在视觉上理解空间关系的能力的适当度量捐款. 在本文中,我们介绍了SpatialSense,一个专门从事空间关系识别的数据集。该数据集的一个关键特征是它是通过对抗性众包构建的:人类注释者被要求提出对抗性的例子来迷惑机器人。这产生了两个期望的性质。首先,数据集包括负面的例子,因为一些人类注释者被明确要求选择错误的空间关系。其次,数据集关注需要更高级推理并且不能通过简单的空间和语言先验来回答SpatialSense在11,569张图像上有17,498个关系。给定两个对象(名称和边界框),任务是对特定空间关系是否成立进行分类。我们提供了对象名称和本地化,从空间关系识别中分离对象检测,这样一个成功的关系识别系统可以直接放置在任何对象检测系统之上。该数据集包含3,679个唯一对象类之间的关系,这些对象类中有2,139个只出现一次,提供了具有挑战性的长尾概念分布。SpatialSense为空间关系推理提供了一个严格的测试平台,这种推理不容易服从简单的先验。首先,每个谓词(“on”、“under”等)有相同数量的正相关和负相关 。 其 次 , 仅 使 用 2D 或 语 言 线 索 的 简 单 基 线 在SpatialSense上的效果明显低于其他现有的空间推理基准。SpatialSense是对大规模数据集(如Visual Genome或Open Images)的补充,因为它可以在长尾中使用具有挑战性的示例来测试空间关系识别模型。我们在SpatialSense上评估了多个最先进的视觉关系检测模型。实验结果表明,这些模型过于依赖数据集的偏见,现在执行简单的基线。这证明了对抗性众包对于减少数据集偏差是有效的,并展示了SpatialSense是提高计算机视觉系统空间推理能力的重要一步。2. 相关工作视觉关系识别。视觉关系的识别最近已经成为高级计算机视觉的前沿Sadeghi Farhadi [23]研究了从图像中检测视觉短语。视觉短语可以是空间关系(例如“自行车旁边的人”)。但他们的数据集只包含17个独特的视觉短语,其中9个是空间关系。这意味着每个空间谓词只与少数 对象类别 一起出现 :e.G.“next to”仅与“per-son”、“car”和“bicycle”连用。因此,该数据集不适合用于评估对对象类别不可知的“旁边”的一般理解Lu等人[19]介绍了视觉关系的任务-相比之下,我们的任务是分类而不是检测,对象对是给定的,并且存在正关系和负关系。我们的任务设置导致关系理解的正确评价。Lu等人介绍的VRD数据集。[19]包括空间关系,但不像我们的数据集,没有负面的例子。因此,使用VRD的评估基于Recall@K,这不适合空间关系,因为许多有效的空间关系可以保持在图像中此外,正如我们将在第4节中展示的那样,VRD中的空间关系使用简单的先验更容易预测。视觉基因组[11]是另一个更大的数据集,具有广泛的视觉关系注释。与VRD类似,它涵盖了大量的空间关系,但没有2053反例,空间关系很容易从简单的先验知识中预测出来。VRD和视觉基因组刺激了视觉关系检测新方法的发展。成功的方法通常建立在对象检测模块之上,并联合推理语言和视觉特征[14,33,17,5,37,31]。多个独立方向已被证明是富有成效的,包括学习对对象类别不可知的特征[29],促进对象特征和谓词特征之间的交互[29,5,14],通过弱监督学习克服标记数据的稀缺性[22,34],以及联合检测多个对象之间的关系作为场景图[28,16、27、15]。我们在我们的数据集上对一些最先进的方法进行基准测试,并将它们与基于语言或2D线索的简单基线进行比较。Peyre等人介绍了一个数据集的不寻常的关系(Un-Rel)[22]分享类似的动机,我们的。为了解决缺少注释的问题,Un- Rel中的关系被详尽地注释。注释每个实例是可行的,因为有一个小的预定义的关系列表,这些关系被精心设计为不寻常的(如此方法无法扩展到大量关系。首先,很难手动挑选大量不寻常的关系。其次,对于注释每个单个实例,众包工作量随着关系的数量线性增长。我们的方法样本有趣的关系,鼓励人群工作者发现他们在图像中,从而规避了可扩展性问题。因此,UnRel具有由18个谓词形成的76个唯一关系三元组,而SpatialSense具有由9个谓词形成的13,229个唯一关系。数据集偏倚。我们没有研究数据和视觉世界之间的错位分布[25],而是专注于数据集偏差的一个特定方面,这使得模型能够走捷径,从而产生良好性能的表面印象。在视觉问答(VQA)的背景下,对这种偏见进行了广泛的研究[36,6,3,9,1,20]。许多VQA数据集存在语言偏见;这些问题可以简单地通过使用语言先验而忽略图像来很好地回答。Zhang等人[36]在抽象场景中平衡是/否问题的数据。他们展示了一个问题-图像对,并要求注释者组成一个新的场景,在这个场景上,问题的答案是不同的。Goyal等人[6]将同样的想法应用到真实的图像上。它们提供了一些语义相似的图像供注释者选择,而不是要求注释者创建新的场景。我们的对抗性众包方法以一种完全不同的方式解决了同样的问题(确保输入图像需要回答问题)。空间关系识别可以理解为VQA的一个特例,其中问题仅限于验证空间关系。选项。在这个意义上,Zhanget al.[36] Goyalet al.[6]要求群众选择硬图像-图像违背预期的答案从语言先验-与固定的问题,而我们要求群众选择硬问题与图像固定。选择难问题的一个潜在优势是,人类可以轻松地编写新问题,但不能轻松地合成逼真的图像,并且也很难找到违背语言先验的图像-这些图像根据定义不太常见,因为语言先验反映了常见事件。对抗性众包。我们的对抗性众包方法的灵感来自于Attenberg等人的[2]其中,人群工作人员面临着寻找会导致AI系统失败的案例的对抗性众包与主动学习有关(例如,[10,26])在这两种情况下,我们寻求困难的例子,以提高学习。然而,关键的区别在于,在主动学习中,机器的任务是3. 通过对抗性众包收集数据集数据集旨在评估铝租赁在具有挑战性和变化的条件下的性能。然而,在许多数据集中观察到的一个弱点是强烈的语言偏见,允许算法通过利用语言先验来表现良好,即使忽略视觉输入[36,6,3,9,1]。此外,在空间推理的上下文中,算法可能会利用简单的2D线索,绕过对空间的真正3D理解[8]。我们在对抗性众包框架中解决了这两个问题。对抗性众包协议。在我们的数据收集管道中(图2),我们要求注释者提出空间关系,使机器人失败。给定一个图像和一个正或负空间关系的请求,注释者通过点击两个对象,输入它们的名称并选择与它们之间的关系对应的空间谓词(如果请求是正的,则为真关系,否则为假关系)来提出一个建议的示例。然后,机器人尝试仅使用对象名称和由点击给出的2D坐标来猜测该关系是正的还是负的如果机器人出错,则它预测的关系是积极的,但实际上是消极的,反之亦然。否则,如果机器人能够正确猜测,则机器人向注释者提供关于如何做出正确猜测的反馈额外的众包用于验证收集的关系并注释对象边界框。为了减少语言偏见并促进真正的3D空间理解,我们需要注释器来选择关系2054图2:在收集负面例子时,注释者挑选了一对对象,并对它们的空间关系撒谎(“冰箱上的然而,在这里,机器人抓住了注释者的谎言,并解释了正确的猜测是如何做出的(从语言或2D线索,或两者兼而有之)。正面示例的UI是类似的,其中注释器告诉机器人一个有效但不可信的空间关系。很难预测给定的物体名称和2D提示。因此,机器人是两种型号的集合:仅语言模型和仅2D模型。纯语言模型采用两个对象名称和pred- icate,并输出关系成立的概率。使用Word2Vec [21]将对象名称转换为词嵌入,然后通过门控递归单元(GRU)[4]将其编码为固定长度的特征向量。谓词的独热编码通过线性层映射到相同大小的这三个特征向量通过逐元素相加进行融合,在此基础上,一个2层全连接网络输出概率。对于纯2D模型,线性层将对象坐标映射机器人的最终输出是这两个模型的平均值最初,我们在没有对抗性众包的情况下收集了7,850个关系的数据集上训练机器人;在SpatialSense的收集过程中,我们偶尔会使用所有当前可用的数据重新训练机器人,以防止注释者利用特定机器人的失败模式。概念词汇。我们将空间谓词限制在一个预定义的列表中 ( above , behind , in , frontof , nextto , on , toleftof , torightof ,under),而不是让注释人员输入自由格式的文本。空间关系可以用一组小得惊人的介词来编码[13]。我们的9个谓词列表涵盖了大多数空间关系的粗粒度语义。虽然可以扩展词汇表来表示更细粒度的空间语义(例如lean on和sit on),但较少的谓词可以确保每个谓词有足够的训练样本。然而,尽管如此,我们的对抗性众包方法随着努力相对于. r. t线性增长而可扩展到更多的谓词。关系的数量,但独立于谓词的数量。相反,对于对象名称,我们允许人类注释者输入自由格式的文本。对象的词汇表非常庞大,注释人员要从一长串对象中进行选择是很麻烦的。此外,有限的对象词汇表会限制注释者挑选形成有趣的空间关系的对象的能力。一般来说,图像很少是完全可预测的,所以会有一个不寻常或令人惊讶的空间关系,击败机器人的简单直觉。因此,这种设置提供了一种获得长尾中的空间关系的有效方式。图像采集。我们总共标注了11569幅图像。其中,10,180张是来自Flickr的RGB图像,1,389张是来自NYUDepth的RGB-D图像[24],我们包括这些图像,以便能够测试深度信息对空间理解的效用。当查询Flickr图像时,我们使用两个关键字的组合而不是单个关键字,遵循COCO [18]采用的方法来获得具有不同对象的图像此外,注释器可以从一组8个图像中挑选一个图像进行注释,以避免图像没有足够的对象(例如,单个前景对象的特写镜头这些技术确保了图像是包含关系推理所需的多个对象的复杂场景我们在Flickr图片上标注了13156个纽约大学的图片上有4342张每个关系由一个空间谓词、两个对象的名称及其边界箱.重要的是,9个谓词中的每一个都有相等数量的正关系和负关系。20%的关系用于测试,15%用于验证。2055●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●● ●●●●●●●●●●●●●●●●●●●●●●●●● ●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●● ● ●●●●●●●●●●●●●●●●●●●●●●●●● ● ●●●●●●●● ●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●● ● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●● ●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●● ● ● ● ●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●● ●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ● ●●上文关于在…的左边在...的前面在...的右边旁边下VRDVG空间感表街树天空草地建筑图3:(左)VRD-空间,VG-空间和SpatialSense-Positive中频繁对象的谓词分布。例如,左下角的条显示了谓词on、under、behind等的频率分布对于SpatialSense中的对象SpatialSense比其他数据集包含更少的语言偏见,因为分布更平衡。(右)三个数据集中前50个对象的谓词分布,进一步显示了SpatialSense中更广泛的分布4. 数据集分析1 1 1SpatialSense数据集有两个关键优势,●●●●●●●●●●●● ●●●●●●●●●●●● ●●●● ●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●● ●●●符合现有基准。 首先,它包含积极的●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●● ●●●00●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●0●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●● ●●●●●●●● ●●●● ●●●●●● ●●●●●●●●●●yy●y● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●● ●●● ●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●● ●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●● ●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●以及负面关系。第二,它被构造成●●●●●●●●●● ●●●●●●●●●●●●●●●●●●●●●●2056具有挑战性;由于对抗性众包,语言和2D先验知识不足以做好这一点数据集。 我们现在进行深入分析,比较−1−1 0X−11−1●●●●●●●● ●● ●●●0X−11−1●●●●●●●0X●●●●●●●●●2057●●12058[19]第十九话,一个人。没有对抗性的众包。20594.1. 与现有数据集的比较Setup. 由于VRD和Visual Genome包含通用2060关系和没有负面的例子,我们预处理数据为了公平比较:(1)只有正面考试-2061考虑了SpatialSense中的应用;得到的数据集是(2)我们过滤掉非-2062VRD和视觉基因组中的空间关系;所得数据集被称为VRD空间和VG空间。在2063除了丢弃非空间关系,我们还映射了VRD和Visual Genome中的等同器械2064在我们的9个空间谓词列表中。 例如,休息,VRD中的park on和lying on都映射到on。2065对于Visual Genome,由于没有封闭的词汇表,我们检查了前100个最常见的谓词,2066补充材料(Supplementary Material)同品种器械分布。 与VRD和VG相比,2067SpatialSense中的谓词分布偏差较小。 图3可视化谓词的分布,2068三个数据集中的不同对象。 对于VG空间,ob-2069VRD VG空间感知图4:主体相对于物体的2D位置2070左为右为按图像大小显示。 SpatialSense在2D提示中的偏差较小
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- BSC关键绩效财务与客户指标详解
- 绘制企业战略地图:从财务到客户价值的六步法
- BSC关键绩效指标详解:财务与运营效率评估
- 手持移动数据终端:常见问题与WIFI设置指南
- 平衡计分卡(BSC):绩效管理与战略实施工具
- ESP8266智能家居控制系统设计与实现
- ESP8266在智能家居中的应用——网络家电控制系统
- BSC:平衡计分卡在绩效管理与信息技术中的应用
- 手持移动数据终端:常见问题与解决办法
- BSC模板:四大领域关键绩效指标详解(财务、客户、运营与成长)
- BSC:从绩效考核到计算机网络的关键概念
- BSC模板:四大维度关键绩效指标详解与预算达成分析
- 平衡计分卡(BSC):绩效考核与战略实施工具
- K-means聚类算法详解及其优缺点
- 平衡计分卡(BSC):从绩效考核到战略实施
- BSC:平衡计分卡与计算机网络中的应用
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)