没有合适的资源?快使用搜索试试~ 我知道了~
深度链接: ImageNet WordNet Synsets与Wikidata的链接研究
2WORDNET, IMAGENET AND WIKIDATA2.1WordNet2.2ImageNet18090将ImageNet WordNet Synsets与Wikidata进行链接0丹麦技术大学DTU ComputeKongensLyngby,丹麦faan@dtu.dk0摘要0将ImageNet WordNetsynsets与Wikidata项目进行链接将利用深度学习算法访问丰富的多语言知识图。在这里,我将描述我们在链接这两个资源和匹配Wikidata和WordNet知识图时面临的问题。我将展示一个示例,说明如何在非英语语言中的深度学习环境中使用链接进行实时图像分类和标注,并讨论未来的机会。0关键词0Wikidata;ImageNet;WordNet;本体对齐;机器学习0ACM参考格式:Finn Årup Nielsen。2018年。将ImageNet WordNetSynsets与Wikidata进行链接。在WWW '18Companion:2018年Web会议Compan-ion,2018年4月23日至27日,法国里昂。ACM,美国纽约,6页。https://doi.org/10.1145/3184558.319164501 引言0近年来,深度神经网络的机器学习在各种任务中取得了有趣的进展。特别是图像分类模型在2011年的受限和受控环境中首次声称实现了“超人类视觉模式识别”[10]。最近的趋势探索了如何将知识库与机器学习结合使用。例如,ConceptNet知识图和两个流行的词嵌入word2vec和GloVe的组合词嵌入可以在词相似性测试中产生最先进的结果[11],而Wembedder系统则在具有推荐系统功能的Web应用程序中使用Wikidata知识图的嵌入[8]。为了利用知识图在机器学习中的优势,我们应该进行深度链接系统,最好不仅在词级别上进行,而且在语义级别上进行,以区分多义词的不同意义。一个机会是通过Wordnet将ImageNet与Wikidata进行链接。0我要感谢Laura Rieger和Lars KaiHansen的讨论。这项研究得到了创新基金丹麦通过DABAI项目的支持。0本文发表在知识共享署名4.0国际许可下。作者保留在个人和公司网站上传播作品的权利,并附上适当的归属。WWW '18Companion,2018年4月23日至27日,法国里昂,©2018IW3C2(国际万维网会议委员会),根据知识共享CC BY 4.0许可发布。ACM ISBN978-1-4503-5640-4/18/04。https://doi.org/10.1145/3184558.31916450下面我将描述这三个资源,并详细介绍在这些资源之间进行匹配的工作中遇到的问题。我将展示统计数据,并描述一个使用ImageNet和Wikidata之间链接的小型机器学习应用程序,最后讨论匹配和扩展Wikidata的问题。0WordNet是一个可机器读取的词汇资源,用于描述单词。同义词被分组为称为synsets的项目[6]。每个WordNetsynset都与一个语义Web链接开放数据(LOD)URI相关联。WordNet3.0版本的URI已经前缀为http://wordnet-rdf.princeton.edu/wn30/,而3.1版本的synsets的URI则前缀为http://wordnet-rdf.princeton.edu/wn31/。最近,规范前缀已经更改,因此部分wn30已更改为pwn30。10ImageNet [2]是一个大型的图像集合,标记为WordNet3.0,并在http://image-net.org/上进行描述。根据1月份的统计数据,ImageNet包含14,197,122张图像和21,841个索引的synsets。有各种标签方案。对象属性方案在25个属性中标记了400个synsets。这些属性与颜色、图案、形状和纹理有关。2ImageNet大规模视觉识别挑战ILSVRC[9]是一个从2010年开始并多次重复的图像识别挑战。它有几个任务:图像分类、单个对象的定位或对象检测。对于图像分类任务,从ImageNet中选择了一个包含1,000个对象类别的子集,对应于1,000个WordNet synsets。ILSVRCsynsets在这些年中发生了变化,因此只有639个synsets在所有年份中都被使用过。受到所谓的AlexNet[5]的演示的启发,该演示报告了在ILSVRC数据集上的最先进的图像分类结果,许多出版物描述了使用ILSVRC数据训练深度学习图像分类模型的用法。研究人员分发基于ILSVRC数据的预训练深度学习模型。其中一个模型是由[3]描述的Resnet-50。高级深度学习Python框架Keras和Caffe能够读取这个01 请参见WN-USER邮件列表上的讨论,网址为https://lists.princeton.edu/cgi-bin/wa?A2=ind1801&L=wn-users&F=&S=&P=1719.旧的URI已被重定向。2 http://image-net.org/download-attributes0Track: Wiki Workshop WWW 2018, 2018年4月23-27日,法国里昂2.3WikidataFormatchingWikidatawithImageNet,IfocusedontheILSVRC-partofImageNetsynsetslink-ingthemupwiththeP2888propertyandthehttp://wordnet-rdf.princeton.edu/wn30/prefixbyexamining Wikidata definitions, WordNet synsets descrip-tions, ImageNet images linked to the WordNet synsets andsometimes the description in Wikipedia articles associatedwith Wikidata items. Matching Wikidata with ImageNet is forsome concepts straightforward. For instance, many taxonscan readily be matched. At other times the matching requiressome thought. Table 1 shows examples where a match isparticular difficult. Below I attempt a classification of variousmatching problems faced during manual linking of Wikidataitems to WordNet synsets.An ILSVRC synset is missing from Wikidata. In most ofthese cases, it is easy to create new Wikidata items and linkthem to WordNet. Examples where I could not find matchingitems and created new items are soup bowl and bath towel.The matching Wikidata item is a Wikipedia disambigua-tion page: An example is car mirror where the English Wiki-pedia page “Car mirror” currently is a disambiguation pagelinking to two real articles “Rear-view mirror” and “Wing mir-ror”. A solution to such a problem would be to either create anew Wikidata item for car mirror or change the definition of“Car mirror” in both Wikidata and the English Wikipedia. “Arm-chair is a disambiguation page in the English Wikipedia, butanother item link armchair in Wikidata (Q25503439). Mixingbowl is another example where the Wikidata item is describinga disambiguation page.There is a discrepancy between ImageNet and Word-Net: For instance, sunglass (http://wordnet-rdf.princeton.edu/wn30/04355933-n) is described as a “a convex lens that fo-cuses the rays of the sun; used to start a fire”. However, theassociated ImageNet images are better described with thehttp://wordnet-rdf.princeton.edu/wn31/104296228-n synset(dark glasses, shades, sunglasses) described with “spectaclesthat are darkened or polarized to protect the eyes from theglare of the sun”. This issue was previously noted by TomWhite on Twitter in September 2017.8 In the same context healso reported differences between the sunglass and the sun-glasses images. A similar confusion occurs for maillot, whereWordnet has two synsets: “a woman’s one-piece bathing suit”and “tights for dancers or gymnasts”. For the latter synset,ImageNet displays images for one-piece bathing suits. An-other example is monitor described as “Electronic equipment218100用几行代码建立模型。例如,使用Keras可以设置预训练的Resnet-50模型为model = ResNet50()。30Keras实现还将训练模型的输出从基于索引的值转换为WordNet同义词集标识符。在ImageNet中,同义词集标识符以单词类作为前缀表示,例如,香蕉的同义词集标识符为n07753592。因此,需要进行(微不足道的)转换以匹配LODURI,香蕉的情况下为http://wordnet-rdf.princeton.edu/wn30/07753592-n,而相应的ImageNet图像的预览可在http://image-net.org/explore.php?wnid=n07753592找到。0协作知识图谱Wikidata,网址为https://www. wikidata.org[12],拥有超过4000万个项目(其标识符以“Q”为前缀),每个项目可以由数千个属性(以“P”为前缀)描述。Wikidata属性的数据类型为“外部标识符”,通常被建议用作深度链接外部数据库的手段。这种方法也可以用于WordNet同义词集标识符。这需要在外部标识符属性可供使用之前,由Wikidata编辑者进行属性建议和一些讨论。4连接Wikidata与WordNet的另一种方法是使用Wikidata的链接到LOD URI的属性:“exactmatch”属性(P2888),对应于skos:exactMatch。该方法可用于将Wikidata项目链接到其关联的WordNet同义词集,例如,mashedpotato(Q322787)通过P2888属性链接到http://wordnet-rdf.princeton.edu/wn30/07711569-n。Wikidata还链接到另一个词汇资源:多语言BabelNet5,通过其自己的外部标识符属性P2581 6进行链接,目前已使用59.105次。7虽然WordNet是使用BabelNet的资源之一[7],但标识符是不同的。例如,“quillpen”在BabelNet中为00065709n,在WordNet3.0中为04033901-n。一旦WordNet3.0的URI已输入Wikidata,我们可以使用Wikidata查询服务(WDQS)SPARQL引擎获得从WordNetURI到Wikidata项目的逆映射,例如,SPARQL查询“ SELECT* WHERE { ?item wdt:P2888 }”将确定Q4063215作为与WordNet概念“quill”对应的Wikidata项目。Wikidata的一个优点是其多语言性质:一旦我们将WordNet同义词集链接到Wikidata项目,我们可以记录多种语言的标签,并且在许多情况下,这些标签已经存在。例如,“quillpen”目前已标记为33种语言。相应的BabelNet数量为12。但是需要注意的是,Wikidata的多语言性质并不完整,并且偏向于主要的欧洲语言[4]。Wikidata和WordNet主要是独立定义的。还有其他一些链接的语义资源也是如此,其中一些是受原始英语(普林斯顿)WordNet [1]启发的一些词网。03 https://keras.io/applications/#resnet50 4我建议这样一个属性,请参见https://www.wikidata.org/wiki/Wikidata:Property_proposal/Wordnet_synset_ID. 5 http://babelnet.org/. 6https://www.wikidata.org/wiki/Property:P2581. 7 Wikidata查询服务可以使用“SELECT (COUNT(*) AS ?count) WHERE { [] wdt:P2581 [] }”进行查询,参见http://tinyurl.com/y8pk2cqa。03 匹配WIKIDATA与IMAGENET08 Tom White (@dribnet)。aha:“sunglass”是“burningglass”,...https://twitter.com/dribnet/status/904133638257655808(2017年9月3日)。0Track:Wiki Workshop WWW 2018,2018年4月23日至27日,法国里昂。should probably not be assigned to the WordNet synset. Ta-ble 1 shows other examples of this problem, e.g., for cup (coffeecup or punch), menu (printed list or a set of servings), notebook(computer or paper book for notes) and pinwheel. Not shownin the table is picture rail (“rail fixed to a wall for hanging pic-tures”) and its parent rail (“a horizontal bar (usually of wood ormetal)”). For both these synsets ImageNet associates images ofrailways and trains. These cases may involve concepts with alarge semantic difference. There are likely more discrepancies.There are some difference between the WordNet andthe Wikidata concepts with similar names. For instance,WordNet defines street sign as “a sign visible from the street”while Wikidata describes the same English word as a “typeof traffic sign used to identify named roads” (Q1969455). TheWikidata item for traffic sign (Q170285) is described as a “sym-bol for people out in traffic” corresponding better to the streetsign of WordNet. Another example is “tea chest” that in the3Track: Wiki Workshop WWW 2018, April 23-27, 2018, Lyon, France18110ImageNet WordNet Wikidata0n07930864:主要是(咖啡)杯子,即“一个小的开放容器,通常用于饮用;通常有一个手柄”,但也有一些香槟杯。0Cup;“一种在壶中而不是碗中供应的酒”,- cup的第6个意义。?Q1121224是父同义词集(punch)的项目。似乎没有对应于punchcup同义词集的项目。0n07565083:印有关于所提供菜肴信息的印刷卡片。菜单:“组成一餐的菜肴”。?ImageNet-consistency可以链接到Q658274。似乎没有对应于WordNet意义的项目。0n03742115:浴室柜的图像。Medicinechest,药柜;“用于存放药品和洗漱用品的柜子”。与药柜不同,WordNet同义词集对应于浴室柜(Q4869069)。0n03832673:直接链接到n03832673的图像显示计算机笔记本电脑,但planner子同义词集显示纸质笔记本电脑。0Notebook是笔记本电脑,但在ImageNet主页上显示的WordNet层次结构中,plannern03956785被描述为一个下义词集,被描述为“用于记录约会和待办事项等的笔记本”。有一个单独的项目用于笔记本电脑。0?最接近的Wikidata项目可能是Q3962,其中laptop是当前的英文标签。似乎没有一个单独的项目用于计算机笔记本电脑。0n04152593:阴极射线管(CRT)屏幕以及一些平板显示器。通常是整个装置,而不仅仅是显示器。主要是计算机屏幕。0Screen,CRT屏幕:“在阴极射线管的大端表面上电子产生的显示”。0?Q5290是计算机显示器或屏幕,并不一定是基于CRT的。Q1736293是阴极射线管屏幕,适合WordNet,但对ImageNet来说不太适合。0n04355933:主要是(全部?)防护眼镜。Sunglass;“一个凸透镜,用于聚焦太阳光线;用于点燃火焰”?Q368027是“burning glass”,对应于WordNet意义,但与ImageNet中的示例非常不同。0n03944341:玩具风车风车;“一个轮子,其边缘有许多与其边缘成直角的销子”。这个玩具还有另一个WordNet同义词集:n03944138,也被称为“风车风力收集器”。0?Pinwheel是英文维基百科的消歧义页面,而“Pinwheel(玩具)”对应于ImageNet的用法和n03944138。0表1:ImageNet、WordNet和Wikidata之间的匹配。一些对齐资源的困难示例。0用于检查电子传输质量或内容的仪器”。在ImageNet的n03782006中,显示的图像更广泛,许多显示计算机显示器,-在Wikidata中,它将对应于大约更一般的概念Q6021804(“电子视觉显示器”)。与显示器问题相关的是屏幕,别名为CRT屏幕,描述为“在阴极射线管的大端表面上电子产生的显示”。相关的ImageNet图像显示许多不是基于CRT的屏幕,而是平板显示器。一个有趣的差异是蜘蛛网:WordNet对该词有两个同义词集:“蜘蛛织造的用于捕捉昆虫猎物的网”和“类似于蜘蛛织造的网”,后者被认为是一种人工制品,前者在ImageNet中找不到。标有后一种意义(n04275548)的ImageNet图像显示真实的自然蜘蛛网。显然,蜘蛛织造的网与蜘蛛织造的网相似,但在这种情况下,蜘蛛织造的网SELECT?count (COUNT(?item) AS ?frequency)WHERE {SELECT4Track: Wiki Workshop WWW 2018, April 23-27, 2018, Lyon, France18120英文维基百科(唯一描述该概念的维基百科)将其解释为一个“大约尺寸为500x500x750毫米”的带有金属边缘的箱子。维基数据将该概念链接到艺术与建筑词库的标识符300039143,该词库解释为“通常用铅或锡固定的方形木箱,用于出口茶叶。”英文维基百科进一步扩展了该概念,称“该术语现在更广泛地用于指示类似尺寸的箱子,包括用于各种家庭和商业用途的纸板箱。”在ImageNet中,茶箱(n04397168)是尺寸不同的茶叶箱,与WordNet的一般描述相对应:“用于存储或运输茶叶的箱子”。这里我们有一个英文维基百科在同一篇文章中描述两个概念,一个具体的和一个一般的,其中一般的主题对应于WordNet和ImageNet的概念。还有一些其他情况需要努力解决匹配问题。这可能涉及WordNet和维基数据中多个语义相似的项目:例如,对于散热器,WordNet中有多个同义词集。ILSVRC(n04040759)中的散热器同义词集被描述为“由金属蜂窝组成的机制,热流体通过蜂窝将热量传递给由车辆运动或风扇产生的气流。”与此同义词集相关联的大多数ImageNet图像符合另一个同义词集的描述,该同义词集被描述为“由一系列管道组成的加热器,用于循环蒸汽或热水以加热房间或建筑物。”在维基数据中,与散热器语义接近的项目有3或4个。WordNet区分了磁带播放器(n04392985)和磁带录音机(n04393095)。在维基数据中只有一个项目。维基数据对婴儿床(婴儿床,摇篮)有多个项目,媒体档案维基共享资源在婴儿床、摇篮和婴儿床等之间有所区分。ImageNetWordNet有两个摇篮同义词集,一个摇篮,一个摇篮,其中四个被归为婴儿床。ImageNetWordNet有两个主要的面具同义词集,维基数据也有两个主标签为“面具”的项目。它们在语义上略有不同,对于n03725035同义词集的描述为“戴在脸上的保护罩”,ImageNet关联的图像不一定是保护罩。ImageNetWordNet有两个卡带和卡带同义词集,很难从它们的描述中区分出来(“容纳用于录制或播放声音或视频的磁带的容器”与“包含磁带的盒子”)。一个被归为容器,另一个被归为存储设备。维基数据的卡带更符合ImageNet WordNet的音频卡带。04 统计数据0通过在WDQS中进行SPARQL查询,我们可以计算与维基数据链接的WordNet 3.0同义词集的数量:0SELECT (COUNT (*) AS ?count) WHERE { ?item wdt:P2888 ?uri .FILTER STRSTARTS(STR(?uri),"http://wordnet-rdf.princeton.edu/wn30/") }0图1:来自维基数据查询服务的图表,显示了每个与WordNet3.0链接的维基数据项中语句数量的频率。0目前的响应结果为324,即大约是ILSVRC同义词集总数的三分之一。一个同时链接到WordNet3.0和BabelNet(使用P2581属性)的项目查询会得到105个维基数据项。链接到WordNet同义词集的维基数据项可能只有很少的描述属性。例如,描述氧气面罩(Q1890958)的属性目前只有精确匹配(P2888),维基共享资源类别属性(P373)以及Freebase、Quora和JSTOR的3个外部标识符。对于放大镜(Q4165197),除了精确匹配属性外,只有一个属性。我们可以通过以下WDSQSPARQL查询计算每个维基数据项的语句数量(即属性值的数量):0SELECT ?item (COUNT(?property) AS ?count) WHERE { ?itemwdt:P2888 ?uri . FILTER STRSTARTS(STR(?uri),"http://wordnet-rdf.princeton.edu/wn30/") ?item ?property [] .FILTER STRSTARTS(STR(?property),"http://www.wikidata.org/prop/direct/") } GROUP BY ?itemORDER BY ?count0排序后的列表显示,具有最多语句的WordNet3.0链接维基数据项通常是各种分类:狗,秃鹰和金鱼每个都有100多个语句。另一方面,像浴室柜,放大镜,摇篮,阴极射线管屏幕以及新创建的药瓶和浴巾这样的无生命物体只有三个或更少的语句,其中包括链接到WordNet的语句。我们可以通过以下SPARQL绘制语句数量的概览,生成类似直方图的图表:518130(a)“咖啡杯”0(b)“洗衣机”0图2:使用KerasResnet-50模型进行图像分类的应用程序的两个屏幕截图,标签通过维基数据翻译成了丹麦语。一张桌子上有一只咖啡杯和一个录音机。在一个案例中,标签显示为“kaffekrus”(咖啡杯),在另一个案例中,分类不成功,标签显示为“vaskemaskine”(洗衣机)。0?item (COUNT(?property) AS ?count) WHERE { ?item wdt:P2888?uri . FILTER STRSTARTS(STR(?uri),"http://wordnet-rdf.princeton.edu/wn30/") ?item ?property [] .FILTER STRSTARTS(STR(?property),"http://www.wikidata.org/prop/direct/") } GROUP BY ?item }GROUP BY ?count0图1显示了WDQS的散点图输出。语句数量最多的是9个。具有这个语句数量的维基数据项的示例有文件柜,迷你品犬(一种狗品种),台灯和牛仔帽。05 示例应用程序0我创建了一个示例应用程序,该应用程序在图像分类环境中使用了维基数据。该应用程序是使用Python编写的,使用了带有TensorFlow后端的Keras深度学习框架。图像是通过OpenCV从USB摄像头实时捕获的。对于基于ImageNet的图像分类,我使用了ResNet50预训练的神经网络,该网络是以ResNet50Keras实现的。在将相机图像输入神经模型之前,它们会被裁剪并使用ResNet50预处理方法进行预处理,该方法是根据FrançoisChollet在https://github.com/fchollet/deep-learning-models提供的示例代码进行的。神经网络的基于索引的输出会使用Keras提供的解码器转换为相应的WordNet同义词标识符。只使用预测中概率最高的索引。这个标识符用于在WDQS中进行最近最少使用的缓存查找,以识别相应的维基数据项。维基数据中的丹麦标签会覆盖在相机图像上,并通过OpenCV函数在计算机屏幕上显示出来。0字体大小会根据分类的概率进行动态调整。图2显示了应用程序的屏幕截图。在使用NVIDIA QuadroK620的台式计算机上,如果使用GPU运行TensorFlow,包括相机捕获、预处理、神经计算和显示,更新速度大约需要80毫秒,而如果只使用CPU,则需要大约180毫秒。如果查询返回的标签没有被缓存,那么在查询WDQS时,更新会额外花费几百毫秒的时间。0讨论0我已经指出了WordNet和相关ImageNet图像之间存在的几个不一致的情况。如果在图像分类环境中使用WordNet或Wikidata的层次结构作为语义背景知识,这将是一个问题。鉴于ImageNet用于基准测试,认为注释将在ImageNet中被更改可能不太乐观。Wikidata如何记录某些WordNet同义词在ImageNet中的表示不好?一种方法是在Wikidata中为ImageNet同义词标识符创建一个专用属性,与WordNet无关。这些属性可以使Wikidata记录ImageNet的不一致之处,例如通过“deprecated”功能或附加到属性的适当限定词。专用属性还可以使某些SPARQL查询更快,因为它不需要使用FILTERSPARQL关键字来区分不同的LODURI前缀。通过WordNet同义词链接到ILSVRC类的Wikidata项目的语句数量较少,这在我们想要利用这些语句为使用ImageNet训练的图像分类器确定类别的上下文提供支持时是一个问题。即使对于dog这样的Wikidata项目,它是目前链接到WordNet的项目中具有最多语句的,用于支持语义描述的相关语句数量也很少:其中许多语句是用于属性taxon commonname(仅仅是一个标签),而链接到其他语句并描述dog概念的语句数量可能少于10个:它是家养动物和宠物的子类;它可以用作宠物、用于狩猎和保护以及作为服务动物;它可以发出一种叫声bark。与之相比,ConceptNet中的语句(断言)更多,但它们也更不正式:根据ConceptNet,狗有一个大的心脏、大脑、跳蚤、四条腿、毛皮、鼻子、一个嘴、爪子、阴茎、牙齿、两只耳朵;狗可以在后院、床上、沙发或桌子上、狗窝等地方;它能够吠叫、咬人和与猫打斗等等。9有机会通过语句来扩展Wikidata,更好地描述其项目,尽管如何做到这一点并不明显。例如,我们应该如何表示狗通常有毛皮和四条腿?或者在某些情况下它与猫形成反义词?一个可以更广泛使用的属性是hasquality(P1552),用于非物质性质。0这些陈述来自conceptnet-assertions-5.5.0.csv.gz,可以从https://s3.amazonaws.com/conceptnet/precomputed-data/2016/assertions/conceptnet-assertions-5.5.0.csv.gz下载,参见https://github.com/commonsense/conceptnet5/wiki/Downloads。0Track: Wiki Workshop WWW 2018, April 23-27, 2018, Lyon, France618140特征。物理对象可以通过高度和重量等特征来描述,但是我们如何描述一个咖啡杯的大小呢?通过一组咖啡杯的平均高度和重量来描述吗?如果是的话,我们从哪里获取这些数据呢?Wikidata项目可以用来描述其他项目,例如,视觉作品可以通过它们所描绘的内容来描述,而书面作品可以通过它们所讨论的内容来描述。例如,Wikidata可以描述洗衣机是一组科学文章的主题。然而,我们现在在Wikidata中的例子主要是描述洗衣机事故的医学文章。这样的注释如何在基于ImageNet的机器学习系统中发挥作用并不明显。不管是在匹配ImageNet的同义词集和Wikidata项目方面存在的问题,还是在这里讨论的问题,我认为将机器学习和Wikidata这样的协作知识库结合起来有着有趣的机会。0参考文献0[1] Bond, F., Vossen, P., McCrae, J. P., and Fellbaum, C. CILI: the Col-laborative Interlingual Index.第八届全球WordNet会议论文集(2016年1月),50-57页。 [2] Deng, J., Dong,W., Socher, R., Li, L.-J., Li, K., and Li, F.-F. ImageNet: A large-scale hierarchicalimage database. 2009年IEEE计算机视觉与模式识别会议(2009年6月)。0[3] He, K., Zhang, X., Ren, S., and Sun, J. 深度残差学习用于图像识别.2016年IEEE计算机视觉与模式识别会议(2015年12月),770-778页。 [4] Kaffee,L.-A., Piscopo, A., Vougiouklis, P., Simperl, E., Carr, L., and Pintscher, L.Babel中的多语言性分析. 第13届国际开放协作研讨会论文集(2017年8月)。 [5]Krizhevsky, A., Sutskever, I., and Hinton, G.使用深度卷积神经网络的ImageNet分类.第25届神经信息处理系统进展(2012年12月),1097-1105页。 [6] Miller, G. A.WordNet:英语词汇数据库. ACM通信杂志38期(1995年11月),39-41页。 [7]Navigli, R., and Ponzetto, S. P. BabelNet:构建一个非常大的多语言语义网络.第48届计算语言学协会年会论文集(2010年7月),216-225页。 [8] Nielsen, F. Å.Wembedder:Wikidata实体嵌入网络服务。 [9] Russakovsky, O., Deng, J., Su,H., Krause, J., Satheesh, S., Ma, S., Huang, Z., Karpathy, A., Khosla, A.,Bernstein, M., Berg, A. C., and Li, F.-F. ImageNet大规模视觉识别挑战。 [10]Schmidhuber, J. 神经网络中的深度学习:概述.神经网络61期(2014年10月),85-117页。 [11] Speer, R., Chin, J., and Havasi,C. ConceptNet 5.5:一个开放的多语言通用知识图谱.第31届AAAI人工智能大会论文集(2016年12月),4444-4451页。 [12]Vrandečić, D., and Krötzsch, M. Wikidata:一个免费的协作知识库.ACM通信杂志57期(2014年10月),78-85页。0跟踪:Wi
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)