没有合适的资源?快使用搜索试试~ 我知道了~
使用维基数据查询维基媒体图像
18150使用维基数据查询维基媒体图像0SebastiánFerrada数据基础研究所,智利圣地亚哥大学DCC,智利,sferrada@dcc.uchile.cl0NicolásBravo智利圣地亚哥大学DCC,智利,nbravo@dcc.uchile.cl0BenjaminBustos数据基础研究所,智利圣地亚哥大学DCC,智利,bebustos@dcc.uchile.cl0AidanHogan数据基础研究所,智利圣地亚哥大学DCC,智利,ahogan@dcc.uchile.cl0摘要0尽管多媒体内容对于Web非常重要,但在构建和设计知识库时往往被忽视:尽管为图像、视频等提供了描述性元数据和链接,但多媒体内容本身往往被视为不透明并且很少被分析。IMGpedia是将维基共享资源(包括视觉信息)和维基数据和DBpedia等相关知识库的图像集合在一起的努力。其结果是一个知识库,其中包含基于视觉描述符的图像之间的相似关系,以及与图像相关的维基数据和DBpedia的资源的链接。使用IMGpediaSPARQL端点,可以执行视觉语义查询,结合从外部资源提取的语义事实和图像的相似关系。本文介绍了一种新的Web界面,以更友好的方式浏览和探索IMGpedia的数据集,以及可以使用IMGpedia最近添加的600万个链接到维基数据的新的视觉语义查询。我们还讨论了IMGpedia项目的未来发展方向。0CCS概念0• 信息系统 → 多媒体数据库;维基百科;0关键词0多媒体,链接数据,维基媒体,维基数据,IMGpedia0ACM参考格式:Sebastián Ferrada,Nicolás Bravo,BenjaminBustos和AidanHogan。2018年。使用维基数据查询维基媒体图像。在WWW '18Companion:2018年Web会议伴侣,2018年4月23日至27日,法国里昂。ACM,纽约,美国,7页。https://doi.org/10.1145/3184558.319164601 引言0多媒体检索和数据网络在很大程度上仍然是独立的研究领域,两者之间的工作很少。0本论文发表在知识共享署名4.0国际许可证(CC BY4.0)下。作者保留在个人和公司网站上传播作品的权利,并附有适当的归属。WWW '18Companion,2018年4月23日至27日,法国里昂,© 2018IW3C2(国际万维网会议委员会),根据知识共享CC BY 4.0许可证发布。ACM ISBN978-1-4503-5640-4 / 18 / 04。https://doi.org/10.1145/3184558.31916460然而,工作在这两个领域的交叉点上的好处是明显的:多媒体检索的目标是基于对其上下文和内容的分析来查找视频、图像等,而数据网络的目标是将Web的内容结构化以更好地自动化各种复杂任务(包括检索)。进一步观察到,多媒体内容正在成为Web中越来越明显的组成部分,我们认为在这个交叉点上的工作可能非常有成果,既可以帮助将数据网络技术更多地引入主流,从而实现更具体的应用,也可以利用数据网络已经提供的知识库、查询语言和推理技术来实现更先进的多媒体检索。这样的组合将允许例如对Web图像的视觉内容和现实世界背景进行语义查询,将媒体与相关信息源、事件、新闻文章或其他媒体进行链接。在这方面,我们在之前的工作中最初提出了IMGpedia[4]知识库:一个链接数据集,提供有关维基共享资源收藏中1500万张图像的信息。IMGpedia的数据集包括捕捉图像各种特征的不同视觉描述符,例如颜色分布、形状模式和灰度强度。它还提供图像之间的静态相似关系以及与DBpedia [6]和(现在)Wikidata[11]相关的实体的链接。使用IMGpedia,可以通过公共SPARQL端点回答视觉语义查询。这些查询将相似关系与从链接源中提取的语义事实相结合;例如,这样一个查询的示例可能是“检索与欧洲大教堂相似的博物馆图像”。在我们之前的工作中[4],我们描述了IMGpedia数据集的创建,并且通过提供到DBpedia的链接演示了它可以响应的一些初步查询。在本文中,我们报告了一些由新添加的到Wikidata的链接启用的视觉语义查询,这提供了一种更灵活的请求外部实体的方式。我们还介绍了IMGpedia的新用户界面,允许人们浏览涉及的图像的SPARQL查询结果,并探索有关图像的详细信息,例如它们的相关网络资源和相似图像。最后,我们提出了一些我们预见到的IMGpedia项目发展的未来方向,以及它可能为现有的维基媒体项目做出贡献的可能方式。0Track: Wiki Workshop WWW 2018, 2018年4月23日至27日,法国里昂181602 相关工作0在语义Web和多媒体领域的交叉点上已经有了一些工作,就像IMGpedia一样,有一些基于语义Web标准的知识库融合了-甚至专注于-多媒体内容。DBpediaCommons自动从维基共享资源库的媒体中提取元数据,提供许可、文件扩展名和注释的三元组[10]。Bechhofer等人[2]提供了一个链接的现场音乐档案数据集,包含特征分析和与现有音乐和地理资源的链接。MIDI数据集[7]以LinkedData的形式表示多个音乐收藏,使用作者策划的或社区提供的歌曲的MIDI版本。还有一些手动策划的数据集,如LinkedMDB提供有关电影的事实,BBCMusic[8]描述乐队、唱片和歌曲。IMGpedia[4]是这方面的一个相关努力,但目前专注于描述图像;然而,与(例如)DBpediaCommons不同,后者专注于纯粹的上下文元数据,IMGpedia旨在利用图像的视觉内容创建超越表面元数据的知识库中的新语义链接。03 IMGPEDIA概述0在我们介绍IMGpedia的新颖方面-用户界面和与维基数据链接启用的新查询之前,我们首先概述IMGpedia,构建它的图像,使用的视觉描述符,考虑的关系类型等。在这里,我们的目标是提供知识库的概述;有关更多详细信息,我们将读者引用到我们之前的论文[4]。IMGpedia包含了来自维基共享资源库多媒体数据集的1470万张图像的信息。我们只考虑扩展名为JPG和PNG的图像(数据集的92%),以便对它们进行标准化分析。我们将图像存储在本地,并通过提取它们的视觉描述符对其进行表征,这些描述符是捕捉图像不同特征的高维向量。使用的描述符包括方向梯度直方图(Histogram of OrientedGradients,HOG)、灰度直方图描述符(Gray HistogramDescriptor,GHD)和颜色布局描述符(Color LayoutDescriptor,CLD)。这些描述符分别提取与图像边界、灰度图像亮度和图像颜色分布相关的特征。使用这些向量集,我们计算了图像之间的静态相似关系:对于每个图像和描述符,我们找到其10个最近邻居,并将这些关系与计算出的距离和使用的描述符类型一起存储(为了适应完整的图像集,我们使用了近似最近邻算法)。最后,我们将所有这些信息表示为RDF图,将其上传到VirtuosoServer,并为客户端提供公共的SPARQL端点以发出查询。在表1中,我们提供了一些统计数据,以便了解数据集的规模,并展示IMGpedia提供的主要实体和属性。04 浏览数据0IMGpedia的初始版本使用了VirtuosoServer的默认接口来编写查询、浏览结果和探索资源。虽然这些接口提供了访问资源的必要机制-一个SPARQL01 http://imgpedia.dcc.uchile.cl/sparql0通过LinkedData解引用的端点-人类用户的接口主要是用于显示SPARQL查询结果的普通HTML表格和用于显示单个资源详细信息的几乎无法阅读的HTML文档。我们预见到缺乏更人性化的接口将阻止人们使用和查询数据集;相反,作为围绕图像的知识库,我们预见到在IMGpedia上创建一个视觉吸引人的查询和浏览界面有很大潜力。为了初步解决IMGpedia的可用性问题,我们建立了一个前端应用程序,使查询和浏览数据的过程更加友好。该应用程序使用AngularJS5框架开发,并使用VirtuosoServer作为后端。该应用程序由三个主要组件组成:一个SPARQL查询编辑器,一个用于显示SPARQL查询结果的浏览器,以及一个用于探索单个视觉实体详细信息的界面。SPARQL查询编辑器提供一个文本区域用于编写查询和一个执行查询的按钮。然后,界面在查询编辑器下方显示SPARQL查询的结果;如果结果包含任何视觉实体,它不仅仅显示图像的URL,还通过向维基共享资源库发出请求自动显示相应的图像。在图1中,我们展示了界面的屏幕截图,显示了一个简单的查询,查询了特定视觉相似度距离内的三对相似图像,并在下方显示了结果。用户可以点击这样一个结果中显示的图像,这将引导他们进入可用于该视觉实体的详细焦点视图。该视图显示了被描述的焦点图像,以及它在维基共享资源库中的名称,并提供了与相关维基百科、维基数据和DBpedia资源的链接(基于这些知识库中的链接、与这些实体相关的维基百科文章中的出现等)。我们还显示了基于IMGpedia知识库中预先计算的相似关系的与焦点图像相似的图像;相似的图像按照视觉描述符进行分组,并按距离排序;用户可以将鼠标悬停在每个图像上以查看距离,或者点击以进入其焦点页面。在图2中,可以找到一个界面的屏幕截图,显示了LucasHorenbout绘制的英格兰玛丽一世的素描;在此之下,界面按照灰度强度描述符的升序显示了找到的相似图像。05 查询数据0在IMGpedia的第一个版本中,支持的视觉-语义查询严重依赖于DBpedia资源的类别的存在;对于第1节中的示例查询,我们使用DBpedia类别dbc:Roman_Catholic_cathedrals_in_Europe来获取欧洲大教堂(参见[4,图3])。为了解决这个问题并支持更多样化的查询,我们添加了到其他补充上下文源的链接;特别是,IMGpedia现在提供了6,614,244个到Wikidata的链接,如果IMGpedia中的视觉实体出现在对应于该Wikidata实体的英文维基百科文章中,则将其链接到Wikidata实体。02接口应用程序的源代码可以在https://github.com/NicolasBravo94/imgpediavis找到。3http://imgpedia.dcc.uchile.cl/query0Track: Wiki Workshop WWW 2018, April 23-27, 2018, Lyon, France18170表1:IMGpedia的高级统计数据0名称 计数 描述0imo:Image 14,765,300 描述单个图像的资源 imo:Descriptor 44,295,900图像的视觉描述符 imo:similar 473,680,270 相似关系 imo:associatedWith19,297,667 链接到DBpedia和Wikidata的链接 总三元组数 3,138,266,288IMGpedia图中的RDF三元组0图1:IMGpedia SPARQL查询编辑器和结果0那个Wikidata实体。通过查询Wikidata的转储文件,我们实现了维基百科文章和Wikidata实体之间的匹配。0利用这些新链接,我们可以提出以前不可能的新查询。例如,现在我们可以请求拉丁美洲的政府宫殿的图像。以前这是不可能的,因为DBpedia中没有涉及这些宫殿的类别;如果我们现在利用这些新的链接到Wikidata,我们可以结合不同的谓词来实现我们的目标。在清单1中,我们展示了满足我们要求的SPARQL查询;它首先通过SPARQL联合从Wikidata请求所有涉及拉丁美洲政府宫殿的实体,进一步检索相关图像的URL,以及宫殿的标签和国家的名称。然后,图3展示了返回结果的示例。04 使用的Wikidata转储文件是2017-07-25的转储文件。5在图中,我们可以看到有一个图像放错了位置:右上方的图像描绘的是德比郡的凯德尔斯顿庄园,然而在维基百科的转储文件中,该图像被0前面的查询被称为纯粹的“语义查询”,意味着它不依赖于IMGpedia中图像内容计算出的任何视觉信息。另一方面,通过与Wikidata的链接,我们可以进行新的视觉-语义查询,结合Wikidata的事实和IMGpedia的视觉相似性;例如,我们可以询问与之前获得的政府宫殿图像相似的教育机构。在清单2中,我们展示了执行此操作所需的SPARQL查询。首先,我们使用与清单1中请求宫殿相同的服务子句,因此在这里省略其正文。然后,我们获取相似的图像及其关联的实体,最后我们使用SPARQL属性路径保留与教育机构相关的图像,以考虑任何子类。在图4中,我们展示了查询的结果。在清单3中,我们展示了另一个视觉-语义查询的示例,其中我们寻找与卢浮宫中的绘画相关的相似人物。在图5中,我们展示了查询的结果,每幅画都有两个相似的人物。值得注意的是,第一幅画没有在卢浮宫展出;然而,该图像与卢浮宫相关,因为它是让∙奥古斯特∙安格尔的自画像,让∙奥古斯特∙安格尔是《拿破仑一世在他的皇帝宝座上》的画家,该画作在卢浮宫展出,因此安格尔的肖像出现在维基百科的文章中。清单3的SPARQL查询可以修改为通过将第二个SERVICE子句中请求的类型从wd:Q5(人类)更改为例如wd:Q3305213(绘画)来获取与卢浮宫展出的其他绘画相似的绘画。这种查询变化的一个有趣结果可以在图6中看到,其中两个图像描绘了同一幅画。在这种情况下,我们可以说这些图像是彼此的近似副本。这种图像之间的关系可以允许对与图像相关的实体进行推理;在这种情况下,一个图像对应于绘画实体,另一个图像与画家相关联,因此很可能画家是该艺术品的作者。第6节进一步讨论了这个主题。06个未来方向0我们介绍了IMGpedia的新功能:更友好的用户界面,帮助人们探索知识库,并链接到Wikidata资源,实现了新型的视觉语义查询。然而,我们的未来目标是将IMGpedia用作探索和潜在证明更一般概念的起点:多媒体检索和数据网络可以在许多相关方面相互补充。因此0在使用(2015-12-01)时,曾经声明该图像在关于阿根廷玫瑰宫的英文版本文章中使用,因此被IMGpedia呈现和错误标记。0跟踪:Wiki Workshop WWW 2018,2018年4月23日至27日,法国里昂Specialising resource links: As it was discussed previouslywith the example of Jean Auguste Ingres, our links from im-ages to related knowledge-base entities is rather coarse beingbased on the existing image relations in external knowledge-bases, and the appearance of an image in the associatedWikipedia article of that image. It would thus be interestingto enhance IMGpedia by offering more specialised typesof links between images and resources, such as to deduce(with high confidence) that a given entity is really depictedby an image. More ambitiously, it would be interesting touse Media Fragments [9] to try to identify which parts ofthe image depict a given entity.Image-based neural networks: There exist a variety of neu-ral networks trained over millions of images to identify dif-ferent types of entities in images (e.g., [5]). Given that ourimages are linked to external knowledge-base entities, wecould use these links to create a very large labelled datasetof images where labels can take varying levels of granularity(e.g., latin american government palaces, governmentpalaces, government buildings, buildings, etc.). Such adataset could be used to train a novel neural network and/orto evaluate current machine vision techniques over labelledimages of varying levels of granularity. Furthermore, neural18180图2:视觉实体的详细页面;显示的URL:http://imgpedia.dcc.uchile.cl/detail/Mary_Tudor_by_Horenbout.jpg0当前版本的IMGpedia在两个领域的交叉点上可以添加许多功能,构思出许多用例,并引发许多研究问题。以下是我们设想的一些方向:0新颖的视觉描述符:目前,IMGpedia的视觉关系基于与颜色、强度和边缘相关的三个核心描述符。在某些情况下,这些描述符可以给出良好的结果,而在其他情况下,结果还有改进的空间。改进IMGpedia中的相似性关系的一个有趣方向是整合和测试新颖的视觉描述符及其可能的组合。然而,这里面存在两个主要挑战:规模和评估。对于规模,计算超过1500万图像的相似性连接需要专门的(和近似的)方法,以避免二次行为;此外,对于某些描述符,甚至计算描述符本身也具有计算上的挑战(例如,我们使用基于神经网络的描述符DeCAF[3]进行了初步实验,但估计在我们的硬件上计算所有图像将需要数年时间)。另一个挑战是评估,这将需要人类判断,但创建一个先验的黄金标准是不可行的;虽然人类用户可以帮助估计精确度,但估计召回率似乎是一个特殊的挑战。0跟踪:Wiki Workshop WWW 2018,2018年4月23日至27日,法国里昂 Lecumberri’s Palace 18190阿根廷玫瑰宫0莱昂贝里宫,墨西哥 烧毁宫,玻利维亚0阿根廷玫瑰宫0阿根廷玫瑰宫0图3:拉丁美洲的政府宫殿0网络可以使我们能够通过提取有关场景的三元组来描述图像的内容[1],提供基于深度学习的特征向量[3];验证图像是否确实是链接实体的描绘;等等。基于图像的推理:我们计划添加图像之间的新关系,例如near_copy或same_subject;这些关系可能允许对数据进行新类型的推理;例如,如果外部知识库中的两个实体与一对通过near_copy或same_subject相关的图像相关联,我们可以推断出关于这些实体的新关系:如果两个实体都是人,我们可以说他们见过面(有一定的可能性);或者如果一个实体是人,另一个实体是地方,那么这个人很有可能去过这个地方。SPARQL相似性查询:在应用语义过滤器后动态计算图像之间的相似性,并不再需要依赖于有限数量的静态计算关系。要高效地实现这一点,可能需要混合成本模型,不仅了解以数据为中心的结果的选择性,还了解基于相似性的结果的选择性。因此,我们开始研究不同的数据索引方式,以便高效地执行相似性连接。0莱库姆贝里宫 海恩斯维尔高中0卡萨∙罗萨达0莱库姆贝里宫0兵库大学0卡萨∙罗萨达 TCNJ0图4:与拉丁美洲政府宫殿相似的教育机构0视频和其他多媒体:尽管维基媒体资源主要是图像,但也有与视频、音频等相关的资源。虽然音频需要一种非常不同的处理方式,但将来可能可以尝试将视频的静止图像与IMGpedia中的图像进行匹配,以识别视频的可能主题,或者一般来说,为视频实现类似的语义检索。同样,其他多媒体来源(如YouTube、flickr等)将来也可以与IMGpedia进行链接。更新IMGpedia:目前,IMGpe-dia的初始版本是静态构建的。因此,一个有趣的技术挑战是将知识库与Wikime-dia和外部知识库保持最新,包括例如增量更新相似关系的能力。0虽然前面的话题涉及扩展或增强IMGpe-dia,但一个正交但至关重要的方面是在知识库之上开发用户应用程序。虽然这里描述的界面是朝着这个方向迈出的一步-允许用户探索图像、相关资源和相似关系-但还有很多工作要做。作为第一步,我们希望用户能够对图像进行关键字搜索。更有雄心壮志的是,例如,我们希望用户能够对数据进行更复杂的视觉-语义查询(目前这仍然需要了解RDF和SPARQL)。0跟踪:Wiki Workshop WWW 2018,2018年4月23日至27日,法国里昂[1] Stephan Baier, Yunpu Ma, and Volker Tresp. 2017. Improving visual relationshipdetection using semantic modeling of scene descriptions. In International SemanticWeb Conference. Springer, 53–68.[2] Sean Bechhofer, Kevin Page, David M Weigl, György Fazekas, and ThomasWilmering. 2017. Linked Data Publication of Live Music Archives and Analyses.In International Semantic Web Conference. Springer, 29–37.[3] Jeff Donahue, Yangqing Jia, Oriol Vinyals, Judy Hoffman, Ning Zhang, EricTzeng, and Trevor Darrell. 2014. Decaf: A deep convolutional activation featurefor generic visual recognition. In International conference on machine learning.647–655.18200?painting ?people0让∙奥古斯特∙安格尔自画像 迈克尔∙威尔曼 格里戈里∙米亚索耶多夫0马奈的《吹笛者》 米歇尔∙阿尔坎 杰伊∙博斯罗伊德0图5:与卢浮宫中的绘画相似的人物0图6:卢浮宫中与其他绘画相似的绘画;右侧的图像出现在《奥林匹亚》艺术作品文章中,而左侧的(近似复制)图像出现在其画家爱德华∙马奈的文章中。0IMGpedia的应用开发还需要适当的可用性测试来验证。总的来说,我们相信通过其对多媒体的关注和对现有知识库的使用,IMGpedia有潜力成为语义Web技术价值的有形证明。我们还希望解决的另一个重要问题是:IMGpedia如何补充维基媒体基金会的现有项目?例如,IMGpedia计算的相似关系是否可以添加到Wikidata中的相关描述中?0检测近似图片是否能在某种程度上帮助维基百科的编辑者?是否可以将一些进一步的视觉信息添加回维基媒体页面的图片中?在各种维基媒体项目的背景下,IMGpedia这样的知识库还可能有哪些其他用途?我们渴望讨论和探索这些用途。0致谢。本工作得到了数据基础研究千年计划研究所、CONICYT-PFCHA 2017- 21170616和Fondecyt Grant No.1181896的支持。我们要感谢Larry González和CamilaFaúndez的帮助。0参考文献0跟踪:Wiki Workshop WWW 2018,2018年4月23日至27日,法国里昂[4] Sebastián Ferrada, Benjamin Bustos, and Aidan Hogan. 2017. IMGpedia: a linkeddataset with content-based analysis of Wikimedia images. In International Se-mantic Web Conference. Springer, 84–93.[5] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. 2012. ImageNet Clas-sification with Deep Convolutional Neural Networks. In Advances in NeuralInformation Processing Systems 25. Curran Associates, Inc., 1097–1105.[6] Jens Lehmann, Robert Isele, Max Jakob, Anja Jentzsch, Dimitris Kontokostas,Pablo N Mendes, Sebastian Hellmann, Mohamed Morsey, Patrick Van Kleef, SörenAuer, et al. 2015. DBpedia–a large-scale, multilingual knowledge base extractedfrom Wikipedia. Semantic Web 6, 2 (2015), 167–195.[7] Albert Meroño-Peñuela, Rinke Hoekstra, Aldo Gangemi, Peter Bloem, Reinier deValk, Bas Stringer, Berit Janssen, Victor de Boer, Alo Allik, Stefan Schlobach, et al.2017. The MIDI Linked Data Cloud. In International Semantic Web Conference.Springer, 156–164.[8] Yves Raimond, Christopher Sutton, and Mark B. Sandler. 2009. InterlinkingMusic-Related Data on the Web. IEEE MultiMedia 16, 2 (2009), 52–63. https://doi.org/10.1109/MMUL.2009.29[9] Raphaël Troncy, Erik Mannens, Silvia Pfeiffer, and Davy Van Deursen. 2012.Media Fragments URI 1.0. W3C Recommendation. (2012).[10] Gaurav Vaidya, Dimitris Kontokostas, Magnus Knuth, Jens Lehmann, and Sebas-tian Hellmann. 2015. DBpedia Commons: Structured multimedia metadata fromthe Wikimedia Commons. In International Semantic Web Conference. Springer,281–289.[11] Denny Vrandečić and Markus Krötzsch. 2014. Wikidata: a free collaborativeknowledgebase. Commun. ACM 57, 10 (2014), 78–85.PREFIX imo: PREFIX wdt: PREFIX wd: SELECT ?imgu ?name ?cname WHERE {SERVICE {wdt:P17 ?country .?palace rdfs:label ?name .}}?img imo:associatedWith ?palace ;imo:fileURL ?imgu .}SERVICE {}?img imo:associatedWith ?palace ;imo:similar ?img2 .rdfs:label ?label .}}SERVICE {?paintingw wdt:P31 wd:Q3305213 ;wdt:P276 wd:Q19675 ;rdfs:label ?label .}?painting imo:associatedWith ?paintingw ;imo:similar ?people .?peoplew wdt:P31 wd:Q5 .}}18210一个SPARQL查询0这里我们提供了用于生成示例的SPARQL查询。0清单1:使用联合查询到Wikidata的拉丁美洲政府宫殿图像的SPARQL查询0?palace wdt :P31 wd :Q16831714 ; # 类型政府宫殿0?country wdt :P361 wd :Q12585 . # 拉丁美洲的国家0可选的 {0?country rdfs :label ?cname 过滤器(LANG(?name)='en' &&LANG(?cname)='en')0清单2:用于获取类似于拉丁美洲政府宫殿的教育中心图片的SPARQL查询0选择 DISTINCT ?img ?img2 ?name ?label WHERE {0... # 根据清单1获取政府宫殿0?img2 imo :associatedWith ?wiki . 过滤器(CONTAINS(STR(?wiki),'wikidata.org')) SERVICE{0?wiki wdt :P31/ wdt :P279* wd :Q2385804; # 教育机构的子类0过滤器(LANG(?label)='en')0清单3:用于检索与卢浮宫绘画类似的人物的SPARQL查询0选择 ?painting ?people WHERE {0过滤器(LANG(?label)='en')0?people imo :associatedWith ?peoplew . 过滤器(CONTAINS(STR(?peoplew),'wikidata.org')) SERVICE {0论文集:Wiki Workshop WWW 2018,2018年4月23日至27日,法国里昂
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![docx](https://img-home.csdnimg.cn/images/20210720083331.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)