没有合适的资源?快使用搜索试试~ 我知道了~
3第十六届AAAI人工智能和交互式数字娱乐会议(AIIDE-20)让故事生动起来:生成交互式小说世界作者:J.Wesley Cheung,J.Dan Tu,William Broniec,Mark O. Riedl佐治亚理工学院交互计算学院{raj.ammanabrolu,wcheung8,d.tu,wbroniec3,riedl} @ gatech.edu摘要交互式游戏(也称为基于文本的游戏)是玩家纯粹通过文本自然语言与虚拟世界进行交互的在这项工作中,我们专注于程序化地生成交互式虚拟世界。生成这些世界需要(a)参考日常和常识先验,以及(b)语义一致,(c)有趣,(d)连贯,同时(e)产生对地点,人和事物的自然语言描述。以现有的书籍故事情节为灵感,我们提出了一种方法,首先提取一个部分知识图编码的基本信息,关于世界结构,如位置和对象。然后,利用主题知识自动完成该知识图,并用于指导神经语言生成模型,该模型将世界其他部分排除我们通过人类参与的研究来评估生成的世界,将我们的技术与基于规则和人为的基线进行比较。介绍交互式游戏(英语:Interactive fictions),也称为文本冒险游戏或基于文本的游戏,是玩家纯粹通过文本的自然语言与虚拟世界互动的游戏,接收他们“看到”的描述并写出他们想要如何行动。在图1中可以看到一个示例。交互式数字游戏通常被构造为谜题或任务,设置在给定游戏世界的范围内。互动小说已经被用作实时游戏代理的测试平台(Narasimhan,Kulkarni,在本文中,我们将探讨人工智能面临的另一个挑战:为交互式功能自动生成基于文本的虚拟世界。文本世界生成有四个核心挑战:(1)常识知识:世界必须参考玩家拥有的先验知识,以便玩家能够理解世界并建立如何与之交互的期望。这在以文本方式呈现世界的交互式小说中尤其如此,因为世界的许多细节必然会被忽略(例如,锅在炉子上;厨房在房子里),否则在图形化的虚拟世界中可能是字面上(2)主题知识:互动小说通常涉及一个主题或体裁,带有自己的期望。例如,在幻想世界中,动物经常会说话。(3)一致性:世界不能看起来像是一个随机的地点组合。(4)自然语言:房间的描述以及允许的动作必须是文本,这意味着系统具有自然语言的通用性。我们提出了一种文本世界生成的方法,该方法基于书的情节构建了一个可交互的、可玩的和可探索的世界。 具体地说 ,我们拿 一个故 事,如福 尔摩斯或Rapunzel-一个正常的线性阅读体验。这提供了主题和体裁先验。它还通过提供一个隐含的基本事实,使评估生成的世界变得更容易我们的方法从输入的故事情节中提取一个部分的,部分连接的知识图,编码信息的位置,字符和对象,以及它们之间然而,故事往往没有明确地andBarzilay2015;CoBaut e'etal. 2018;Hausknechtetal.包含完全填写此类表格所需的所有信息2019年b)。与其他图形游戏不同,交互式游戏测试智能体通过交流推断世界状态的能力,以及通过语言影响世界变化的能力。 交互式小说通常以真实或幻想世界为模型;常识知识是成功玩互动游戏的重要因素(Am-manabrolu和Riedl 2019 a; Yin和May 2019)。表示平等贡献graph. 我们的方法填补了缺失的关系和启示--关于如何使用物体的通常未说明的知识--使用从类似类型的故事训练中获得的主题知识的信息。完成的知识图用于指导位置、角色和对象的文本描述生成过程。游戏由知识图谱和相应的生成描述组成。我们做了两个独立的人体测试-2020年,美国广告与人工智能协会一个用于知识图谱构建情报(www.aaai.org)。All rights reserved.1代码和数据可在https://github.com/rajammanabrolu/WorldGeneration上找到另一个是整个游戏创作过程的测试,特别是连贯性,趣味性和能力,4阿奇约翰·克莱帮手具有具有具有银行金库红头发旁边旁边具有威尔逊的商店贝克街具有具有具有裤脚人工膝关节人行道上的轻敲声位置角色对象图2:AskBERT构建的示例知识图。图1:在深层神经生成的神秘环境中的玩家交互保持一个主题或流派。相关工作最近有一些作品在发展中-可以玩文本游戏的代理( Narasimhan , Kulkarni 和 Barzilay2015;Haroushetal.2018;C ot e'etal. 2018;Hausknecht et al. 2019 a ) 。Ammanabrolu 和 Riedl ( 2019 a; 2019 b ) 以 及Ammanabrolu和Hausknecht(2020)特别使用知识图作为博弈代理的状态表示这些作品都集中在学习玩一组给定的交互式数字游戏的代理上,而不是生成它们。Permar和Magerko(2013)提出了一种以想象游戏的形式生成自由形式活动所需的认知脚本的方法。他们采用现有的认知脚本,并以更传统的概念混合方式(Veale,O 'donoghue和Keane 2000; Zook,Magerko和Riedl 2011)将其混合,以创建新的混合脚本。这项工作并不学习为交互式游戏生成内容,而是通过重新组合现有的、预先定义的知识来制作内容。Scheherazade-IF(Guzdial et al. 2015)是一个生成自己冒险风格超链接互动叙事的系统。它基于通过众包撰写短篇小说的任务所撰写的故事来学习关键情节元素和它们之间的时间关系的图(Li等人,2012)。Womack和Freeman(2019)提出了一种围绕位置创建交互式叙事的方法,其中句子被映射到来自属于某种体裁的句子语料库与这些模型相反,我们的方法生成一个基于解析器的交互式文件,其中玩家输入文本为基于文本的游戏设定任务,该游戏从任务语料库和程序活动的其他描述中学习,然后扎根于给定的手工创作的文本世界。本文重点讨论的问题,在以前的工作中所掩盖的世界生成,这两个系统是互补的。Light(Urbanek et al. 2019)是一个众包数据集 文本冒险游戏对话的基础它包含有关幻想世界中的地点、人物和物体的信息。Fan et al.(2019)使用Light为基于文本的游戏生成世界。他们使用Light训练基于神经网络的模型,将位置,角色和对象组成一个交互式世界。相比之下,我们专注于从现有的故事情节中提取构建互动世界所需的信息。世界生成世界的产生分为两个阶段。在第一阶段,从故事情节中提取部分知识图,然后使用主题常识知识填充。在第二阶段,图形被用作骨架,以生成一个完整的交互式数字游戏,为房间和嵌入式对象生成文本描述或“文本描述”。在本节中,我们提出了一种新的神经方法,以及针对每个阶段的规则指导基线。知识图谱构建第一阶段是从故事中提取知识图,描述位置,角色,对象以及这些实体之间的关系。我们提出了两种技术。第一种是使用神经问答技术从故事文本中提取关系。第二个是作为基准提供的,使用OpenIE5,2一种常用的基于规则的信息提取技术。为了简单起见,我们主要考虑位置-位置和位置-角色/对象关系,分别由图2中的“next to”和“has”边表示命令,允许更大的表现力。Ammanabrolu等人(2020)提出了一种技术,为第二代https://github.com/dair-iitd/OpenIE-standalone行动:检查约翰克莱曲名:Go to Baker Street贝克街就像伦敦的其他街道一样,它是一个舞台布景,社会上最好的和最坏的人都挤在一个地方。约翰·克莱约翰·克莱个子矮,结实,属于比较高的那种人,他是那种靠他所守的表而生,也靠他所守的表而死的人。银行金库它大约三英尺高,一英尺半宽。出口:贝克街和威尔逊你看:阿奇,助手和约翰克莱5⟨⟩Σ目标实体描述条件GPT-2约翰·克莱个子矮,结实,属于比较高的那种人,他是那种靠他所守的表而生,也靠他所守的表而死的人。虽然已经存在许多执行类似任务的神经模型,例如命名实体提取和词性标记,但它们通常以大量适合该任务的专用标记数据为代价。相反,我们提出了一种新方法,该方法利用为基于上下文的问答任务训练的模型来进行实体提取,而不需要依赖于任务的数据或微调。我们的方法被称为AskBERT,它通过询问相关问题来利用测试(QA)模型ALBERT(Lan et al. 2019)。AskBERT由图3中的两个步骤组成:顶点提取和图形构造。第一步是从故事中提取实体集-图顶点。我们正在寻找提取信息,特别是关于字符,位置和ob-batch。这是通 过 询 问 QA 模 型 问 题 来 完 成 的 , 例 如 Ribeiro ,Guestrin和Singh(2019)已经表明,给予QA模型的问题的措辞很重要,这构成了我们如何制定问题的基础-问题被提出,以便它们更有可能返回一个单一的答案,例如问而不是特别是,我们注意到代词的选择可能是至关重要的;“故事中的位置在哪里?”比“故事中的地点是什么"更有说服力。ALBERTQA被训练为当它无法在故事中找到问题的答案时也输出一个特殊的<无答案>令牌。我们的方法利用这一点,通过迭代地向QA模型提出一个问题,并屏蔽掉前一步输出的最有可能的答案。这个过程一直持续到no-answer>标记成为最可能的答案.<下一步是图形构造。典型的交互式虚拟世界通常被构造为树,即除了位置之间没有循环。利用这一事实,我们使用一种方法,从顶点集构建一个图,一次一个关系或边。再次使用整个故事情节作为上下文,我们查询ALBERT-QA模型,从先前提取的顶点集合中选择随机起始位置x和这些问题的措辞方法遵循顶点提取的描述。QA模型给出的答案通过挑选包含与答案最佳单词标记重叠的顶点u来匹配到顶点集通过基于QA模型给出的答案的输出概率计算关系概率来添加顶点之间的顶点x,u相关的概率关系提取问题ALBERT-QA21故事情节ALBERT-QA实体提取问题顶点集文字游戏知识图图3:用于图构造的整体AskBERT管道图4:神经描述生成概述。基于规则的图构造我们将我们提出的AskBERT方法与非神经的基于规则的方法进行了比较。这种方法是基于OpenIE5提取的信息Ope-nIE 5结合了几篇现有论文中的 几 个 前 沿 思 想 ( Saha 和 Mausam 2018; Kristen 和Mausam 2016; Christensen等人。2011)创建一个强大的信息提取工具。对于一个给定的句子,OpenIE5生成多个三元组,以实体、关系、实体的格式作为句子的简洁表示,每个三元组都有一个置信度分数。这些三元组偶尔也被标注有位置信息,指示三元组发生在一个位置。与神经AskBERT模型一样,我们试图提取有关位置、 人物和对 象的信 息。整个 故事情 节被传 递到OpenIE5中,我们收到一个哪里p(x,u)+p(u,x)P(x,u)=2(一)一组三元组。三元组上的位置注释用于创建一组位置。我们标记故事中哪些句子包含这些位置。基于名词短语标记的词性标注与名词性词性标注相结合,p(x,u)=o∈QA输出p(o)1{u= argmax(v<$o)}(2)thelter三元组的集合-识别故事中的人物和对象的集合该图是通过将是来自QA模型的答案中的重叠标记的各个标记概率的总和,以及u。根据他们所在的位置。虽然有些句子包含非常明确的位置信息,目标实体杰贝兹·威尔逊是伦敦的一个当铺老板,他来找夏洛克·福尔摩斯和华生医生看病。...他们是约翰·克莱,他已经有很长的犯罪活动历史了,还有他的助手阿奇。生成提示问:约翰·克莱是谁?答:故事情节v6把它标在三元组中,大多数都没有。因此,我们假设位置对于在明确提到位置的句子之间提取的所有三元组例如,如果在故事的第一句中存在位置A,在第五句中存在位置B,则在句子1-4中描述的所有事件都被认为发生在位置A中。这些事件中提到的实体连接到图中的locationA。描述生成第二阶段涉及使用构建的知识图来生成我们提取的实体的文本描述,也称为文本描述。这涉及到当玩家输入一个位置和每个对象和角色的简短简介时,生成玩家“看到”的描述这些描述不仅需要忠实于知识图谱和整个故事情节中的信息,而且还需要包含丰富的内容,让玩家感兴趣。神经描述生成在这里,我们通过从基于条件变换的生成方法(Shirish Keskar et al.2019),并使用我们构建的知识图谱来帮助生成构成世界的文本描述。我们的方法如图4所示,示例描述如图1所示。知识图在这个过程中至关重要,主要有两个原因:(1)它为世界的结构提供了主题上的一致性-世界将只是位置的随机集合,以及(2)知识图中的关系用于构造用于调节描述生成网络的提示。对于故事中的任何给定实体,我们首先将其定位在故事情节中,然后构建一个提示,该提示由整个故事组成,包括故事中第一次提到该实体时的句子,然后是一个要求描述该实体的问题。在提示语方面,我们发现更直接的方法,如问题回答比开放式句子完成更一致。例如,“问:谁是王子?答:他/她看起来”。该问题取决于如图2中所见的将实体链接到知识图中的其他实体的关系,例如,对于我们基于transformer的生成,我们使用预训练的355 M GPT-2模型(Radford et al. 2019),该模型基于从维基百科收集的图表摘要语料库进行优化。用于微调的情节专门针对故事类型进行定制,以便为目标类型提供更相关的生成。关于所用数据集的其他详细信息见评价一节该方法在通常缺乏“语义一致性”的知识图动词化技术基于规则的描述生成在基于规则的方法中,我们利用了T e xt W orl d内置文本游戏生成器中的模板(Cot e'etal.2018年)生成我们的图表的描述TextWorld是一个开源库,它提供了一种生成文本游戏学习环境的方法,用于使用预构建的语法来训练强化学习代理。这里涉及的两个主要模板是来自TextWorld的RoomIn- tro Templates和Container Description Templates,分别负责生成对象/角色的位置描述和简介。位置和对象/字符信息取自先前构建的知识图。例如:• 房间介绍模板:• 容器描述模板:#contains#对象/人-名称“每个由#符号包围的标记都可以使用一组选择的终端扩展到k个ens。例如,#entered#可以用以下任何短语来填充:进入;走进;陷入;移动到;偶然进入;进入。其他前缀、后缀和形容词增加了描述的相对多样性与神经方法不同,基于规则的方法不能生成对位置/对象/角色的特性的详细和详细的描述。然而,凭借模板,它在保持与知识图中包含的信息的一致性方面要好得多评价我们通过Amazon Mechanical Turk招募参与者,进行了两组人类参与者评估。第一次评估测试知识图构建阶段,在此阶段,我们测量不同模型提取的图形的感知连贯性和类型或主题相似性第二项研究比较了完整的游戏,包括描述生成和游戏组装,这这项研究着眼于如何有趣的游戏是玩家除了整体的连贯性和体裁相似性。这两项研究都是在两种类型上进行的:神秘和童话。这样做的部分原因是为了测试我们的方法在具有不同主题常识知识的不同类型中的相对有效性。使用的数据集是通过故事摘要编译的,这些故事摘要是通过递归爬行机器人从维基百科上抓取的。机器人搜索页面,寻找情节部分以及其他潜在故事的链接。从这一过程中,695个童话和536个神秘故事被编为两个类别:小说和短篇小说。我们注意到,这些神秘故事并不经常包含许多幻想元素,也就是说,它们由我们世界中的神秘故事组成,如福尔摩斯,而童话故事则远离现实。关于如何进行每项研究以及相应设置的详细信息如下所示。知识图谱构建评价我们首先从每种类型中随机选择10个故事的子集,然后使用三种不同的模型提取知识图。每个参与者都有三个7流派问题神经规则随机p值神秘相似类型一致性2112330.350.049磅童话相似类型一致性1133220.014磅0.013米表1:顶点统计:每个流派按类型划分的平均顶点数。随机模型具有与神经模型相同的顶点统计。流派统计神经规则随机神秘Avg. 边缘Avg. 程度10.71.63± 1.7722.32.15± 0.3810.71.63± 1.63童话Avg. 边缘Avg. 程度16.71.73± 2.04121.98± 0.2916.71.73± 1.64表2:边和度统计信息:图形的平均边计数、平均度计数和度标准差。从每种类型的单个故事中提取图表,然后根据它们的连贯性以及图表与类型的匹配程度对它们进行排名。这些图与图2所示的图相同,并按顺序呈现给参与者。图表和类型的确切顺序也是随机的,以减轻任何潜在的潜在相关性。总体而言,本研究共有130名参与者。这确保了平均每个故事的图表被13名参与者看到。除了神经AskBERT和基于规则的方法之外,我们还测试了神经模型的一种变体,我们称之为顶点提取的方法与神经方法相同,但我们随机连接顶点,而不是根据QA模型选择最有把握的顶点我们用一个起始位置实体初始化图然后,我们从顶点集中随机采样,并将其连接到图中随机采样的位置,直到每个顶点都已连接。这种消融特别被设计用于测试我们的神经模型预测实体之间关系它可以让我们观察如何准确地链接相关的顶点影响我们测试的每个指标为了公平地比较不同方法产生的图,我们从初始图中随机删除了一些节点和边,以便每个图的最大位置数量和每个故事类型中每个位置的最大对象/人数量相同。结果示于表3中。我们显示了每个模型在两个问题上的中位数排名。排名数据通常是密切相关的,因此我们在三个模型之间进行了Friedman检验,以验证结果是否具有统计学这在表中表示为p值(星号表示p 0时的显著性<。05)。当我们比较特定的模型对,必要时,我们还进行Mann-Whitney U检验,以确保排名显著不同。表3:知识图谱评估研究的结果,显示了每个模型的中位数排名。在神秘类型中,基于规则的方法通常在类型相似性方面排名第一,其次是神经模型和随机模型。然而,这一特定结果在统计学上并不显著,可能表明所有模型在这一类别中的表现大致相同。神经方法被认为是最连贯的,其次是规则和随机。对于童话故事,神经模型在向参与者提出的两个问题上排名更高。在这种类型中,随机神经模型也比基于规则的方法表现得更好。表1和表2示出了根据顶点和边构建的知识图的统计。我们看到,基于规则的图构造具有更少的位置、字符和实体之间的关系,但总体上具有更多的对象对象数量较多可能是由于基于规则的方法无法正确识别位置和字符。与童话故事相比,神秘类型中的方法之间的差距不太明显,事实上,基于规则的图比神经图具有更多的随机模型和神经模型在所有类别中的实体数量相同,但随机模型在发现的关系数量上的方差一般较低,在这种情况下,神秘故事的方差也低于童话故事。当在表3中的结果的上下文中考虑时,似乎表明以AskBERT的形式利用主题常识用于图构建直接导致更连贯并且更容易保持体裁这在童话故事中尤其如此,在童话故事中,自然和日常常识的分歧比神秘故事更大。完整游戏评估这项参与者研究旨在测试整个游戏制定过程,包括世界世代一节中描述的两个阶段。每个类型的一个故事是从用于图形评估过程的10个故事中手工选择的。从这个故事的知识图中,我们使用前面描述的神经,规则和随机方法生成描述。此外,我们在这里为每个故事引入了一个人类创作的游戏,以提供额外的基准。这位作者选择熟悉文本冒险游戏,以及侦探神秘和童话故事的类型。为了确保公平的比较,我们确保位置的最大数量和每个位置的字符/对象的最大数量与其他方法相匹配。在设定了一般的预期之后,作者阅读了选定的故事,并在相应的三个步骤中构建了知识图:流派类别神经规则神秘位置7.23.5字符4.84.1对象3.212.2童话位置4.01.8字符3.31.2对象4.18.78流派问题神经与随机(%)神经与规则(%)神经与人体(%)神秘有趣连贯性与体裁相似55 vs. 4564对36岁*55 vs. 4528对72岁 *55 vs. 45岁 *62对38岁 *31对69岁 *31对69岁 *25 vs. 75岁 *童话有趣连贯性与体裁相似58对4275对25岁*75对25岁*63 vs. 37岁 *75对25岁 *63 vs. 37岁 *36 vs. 64岁 *55 vs. 4531对69岁 *表四:完整游戏评估参与者研究的结果,显示了与神经模型相比,更喜欢基线的参与者的成对百分比。* 表示统计显著性(p<0. 05)。故事,映射实体之间的位置关系,然后基于所述位置、整个故事情节和背景主题知识来合成实体的广告文本一旦为特定故事生成了知识图和相关描述3Evennia被选中是因为它的灵活性和定制性,以及方便的Web客户端用于最终用户测试。数据结构被翻译成Evennia中的构建器命令,构建了游戏世界的各种布局、文本和规则。用户被放置在他们正在玩的游戏中不同世界位置的一个“房间”中,并被要求探索他们可用的游戏世界。用户通过在房间之间移动和调查对象来实现这一点。每次进入一个新的房间或调查对象时,玩家每个参与者都被要求玩神经游戏,然后再玩一个来自同一类型中三个额外模型之一的游戏。每个游戏的完成标准是收集游戏中可能的总分的一半,即探索所有可能的房间的一半,并检查所有可能的实体的一半。这为参与者提供了完成特定游戏的多种完成后,参与者被要求根据整体感知的连贯性,有趣性和对类型的坚持对两个游戏进行排名。我们还提供了一个必要的初始教程游戏,演示了所有这些机制。参与者玩游戏的顺序也像在图评估中一样随机化,以消除潜在的相关性。我们总共有75名参与者,39人参加了神秘故事,36人参加了童话故事。当每个玩家玩神经模型创建的游戏和一个来自其他方法的游戏时-这给了我们13个平均值,用于神秘类型的其他方法和12个童话故事。完整游戏研究的结果总结见表4。由于这项研究中所做的比较都是在我们的神经模型和其中一个基线之间成对进行的-它们以百分比的形式呈现-参与者的年龄更喜欢基线游戏而不是神经游戏。再次,由于这是高度相关的排名数据,我们在每对之间进行Mann-WhitneyU检验,以确保排名有显著差异。这3http://www.evennia.com/也在桌子上。在神秘类型中,神经方法通常比规则或随机方法更受参与者的青睐。人类制作的游戏胜过他们所有人。一个重要的例外是,参与者认为基于规则的游戏比神经游戏更有趣童话类型的发展趋势大体相似,但也有一些明显的差异。第一个偏差是基于规则和随机的方法在这种类型中的表现明显不如神经我们还看到,神经游戏和人造游戏一样连贯。与之前的研究一样,我们假设这可能是推而广之,我们可以说,童话故事中的神秘常识与日常常识的重叠比世俗的神秘常识要少。这有几个含义,其中之一是这个主题的具体信息不太可能被OpenIE5之前看到。这表现在基于规则的模型在这一体裁中在趣味性和连贯性两方面的表现都有相对提高,体裁差异也表现在随机模型的表现上与我们的神经模型相比,这个模型在所有问题上都有所欠缺,特别是在童话故事中。这意味着使用AskBERT的主题相关信息填补知识图谱中的空白,可以产生更有趣和连贯的描述和游戏,特别是在自动常识与日常常识不同的环境结论程序化世界生成系统需要语义一致,符合主题和日常常识理解,并保持整体兴趣。我们描述了一种将故事情节形式的线性阅读体验转化为互动叙事体验的方法。我们的方法AskBERT使用主题com-monsense提取并填充知识图,然后将其用作骨架来筛选出 世界各国我们的人类参与者研究的一个关键见解表明,构建主题一致的知识图的能力对于整体的连贯性和有趣性至关重要,特别是当主题偏离日常常识理解时。9引用Ammanabrolu,P.,Hausknecht,M. 2020.自然语言动作空间的图约束强化学习。在学习表征国际会议上。Ammanabrolu,P.,Riedl,M. 2019年a。 使用知识图进行深度强化学习的迁移。在EMNLP-19的TextGraphs-13中,1-10。香港:计算语言学协会。Ammanabrolu,P.,Riedl,M. O. 2019年b.使用基于图形的深度强化学习玩文本冒险游戏。在计算语言学协会北美分会2019年年会的会议记录中:人类语言技术,NAACL- HLT 2019。Ammanabrolu,P.; Broniec,W.; Mueller,A.; Paul,J.;Riedl,M. O. 2020.在文本冒险游戏中自动生成任务。在计算创造力国际会议ICCC-20。Christensen,J.; Soderland,S.; Etzioni,O.;还有毛瑟姆2011.基于语义角色标注的开放信息抽取分析。第六届国际知识捕获会议论文集,113-120。ACM。你 好 , M.- 一 、 Ka'da'r , A' 。 Yuan , X.;Kybartas ,B.;Barnes,T.;很好,E。Moore,J.;Hausknecht,M.;阿斯里湖E.的;Adada,M.;等,2018年。Textworld:一个基于文本游戏的学习环境. arXiv预印本arXiv:1806.11532。Fan,A.; Urbanek,J.; Ringshia,P.; Dinan,E.; Qian,E.;Karamcheti,S.;Prabhumoye,S.;Kiela,D.;Rocktaschel,T.;Szlam,A.;等,2019年。用文本生成交互式世界。arXiv预印本arXiv:1911.09194。Guzdial,M.; Harrison,B.;李,B.; Riedl,M. 2015.众包开放互动叙事。在FDG。Haroush , M.;Zahavy , T.;Mankowitz , D.J. 道 : 和Mannor,S.2018.学习如何在基于文本的游戏中不采取行动。在ICLR 2018的研讨会跟踪中,1Hausknecht,M.;Ammanabrolu,P.;你好,M.-一、和袁,X. 2019年a。 互动游戏:巨大的冒险。CoRRabs/1909.05398。Hausknecht,M.;Loynd,R.;杨,G.;Swaminathan,A.;和Williams,J. D. 2019年b. Nail:一种通用的交互式计算代理。CoRRabs/1902.04259。Lan,Z.;陈,M.; Goodman,S.;金普尔,K.; Sharma,P.;和Soricut,R. 2019. ALBERT:A Lite BERT for Self-Supervised Learning of Language Representations. arXiv电子打印arXiv:1909.11942。李,B.;Lee-Urban,S.;Appling ,D.S.的; Riedl,M.O.2012 年 。 众 包 叙 事 智 能 。 InAdvances in Cog-100Systems,Volume 1,1Narasimhan,K.; Kulkarni,T.;和Barzilay,R. 2015.基于文本的游戏的语言理解使用深度再学习。自然语言处理经验方法会议(EMNLP)H.,还有毛瑟姆2016.名词性开放式ie中的反义词与复合关系名词。InProceedings of the第五届自动化知识库建设研讨会,35-39。Permar,J.,和Magerko,B. 2013.概念整合理论与互动叙事的认知生成第九届AAAI人工智能和互动数字娱乐会议(AIIDERadford,A.;吴,J.; Child,R.; Luan,D.; Amodei,D.;和Sutskever,I.2019年。语言模型是无监督的多任务学习器。里贝罗,M。T.; Guestrin,C.;和Singh,S. 2019.是红玫瑰红?评价问答模型的一致性在计算语言学协会第57届年会的会议记录中,6174Saha,S.,还有毛瑟姆2018.从连接句中提取开放信息。第27届国际计算语言学会议论文集,2288Shirish Keskar,N.; McCann,B.;瓦什尼湖的R.;熊,C.;和Socher,R.2019年。CTRL:一种用于可控发电的条件 Transformer 语 言 模 型 arXiv 电 子 打 印 arXiv :1909.05858。Urbanek , J.; Fan , A.; Karamcheti , S.; Jain , S.;Humeau,S.; Dinan,E.; Rock taüschel,T.; Kiela,D.;Szlam ,A.; 和We-ston,J.2019。学习说话和行动在一个幻想文本冒险游戏。在EMNLP-IJCNLP的会议记录中,673- 683。Veale,T.; 和Keane,M.T. 两千计算和混合。CognitiveLinguistics11(3/4):253-282.Womack,J.,Freeman,W. 2019.互动叙事生成使用特定的位置和体裁上下文。在互动故事,343Yin,X.,和May,J. 2019。可理解的上下文驱动的文本游戏。CoRR绝对值/1905.02265。Zook,A.; Magerko,B.; Riedl,M. 2011.正式的模仿道具游戏。第八届ACM创造力与认知会议论文集,147-156。New York,NY,USA:ACM.
下载后可阅读完整内容,剩余1页未读,立即下载
![docx](https://img-home.csdnimg.cn/images/20210720083331.png)
![docx](https://img-home.csdnimg.cn/images/20210720083331.png)
![docx](https://img-home.csdnimg.cn/images/20210720083331.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 利用迪杰斯特拉算法的全国交通咨询系统设计与实现
- 全国交通咨询系统C++实现源码解析
- DFT与FFT应用:信号频谱分析实验
- MATLAB图论算法实现:最小费用最大流
- MATLAB常用命令完全指南
- 共创智慧灯杆数据运营公司——抢占5G市场
- 中山农情统计分析系统项目实施与管理策略
- XX省中小学智慧校园建设实施方案
- 中山农情统计分析系统项目实施方案
- MATLAB函数详解:从Text到Size的实用指南
- 考虑速度与加速度限制的工业机器人轨迹规划与实时补偿算法
- Matlab进行统计回归分析:从单因素到双因素方差分析
- 智慧灯杆数据运营公司策划书:抢占5G市场,打造智慧城市新载体
- Photoshop基础与色彩知识:信息时代的PS认证考试全攻略
- Photoshop技能测试:核心概念与操作
- Photoshop试题与答案详解
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)