没有合适的资源?快使用搜索试试~ 我知道了~
30第十六届AAAI人工智能与互动数字娱乐大会论文集(AIIDE-20)0栩栩如生的故事:生成交互式小说世界0Prithviraj Ammanabrolu, � Wesley Cheung, � Dan Tu, William Broniec, Mark O. Riedl School ofInteractive Computing Georgia Institute of Technology { raj.ammanabrolu, wcheung8, d.tu,wbroniec3, riedl } @gatech.edu0摘要0交互式小说(也称为基于文本的游戏)是一种玩家纯粹通过文本自然语言与虚拟世界互动的游戏形式。在这项工作中,我们专注于程序化生成交互式小说的世界。生成这些世界需要(a)参考日常和主题常识先验知识,此外还需要(b)在语义上保持一致,(c)趣味性,(d)整体连贯性,同时(e)生成地点、人物和物品的流利自然语言描述。借鉴现有书籍的情节作为灵感,我们提出了一种方法,首先提取一个部分知识图,编码关于世界结构(如位置和物品)的基本信息。然后,利用主题知识自动完成此知识图,并用它来引导神经语言生成模型来完善世界的其余部分。我们通过人类参与者研究来评估生成的世界,将我们的技术与基于规则和人工制作的基准进行比较。0介绍0交互式小说(也称为文本冒险游戏或基于文本的游戏)是一种玩家纯粹通过文本自然语言与虚拟世界互动的游戏形式,通过接收“所见”描述和书写他们想要采取的行动来进行互动。图1中显示了一个例子。交互式小说游戏通常以谜题或任务的形式呈现,设置在给定的游戏世界中。交互式小说已被采用作为实时游戏代理的测试场所(Narasimhan, Kulkarni,and Barzilay 2015; Cˆot´e et al. 2018; Hausknecht et al.2019b)。与其他图形游戏不同,交互式小说通过语言来测试代理在沟通中推断世界状态和通过语言影响世界变化的能力。交互式小说通常模拟真实或幻想世界;常识知识对于成功玩交互式小说非常重要(Am- manabrolu and Riedl2019a; Yin and May 2019)。0� 表示相等贡献版权所有 c �2020,人工智能促进协会(www.aaai.org)。保留所有权利。 1代码和数据可在https://github.com/rajammanabrolu/WorldGeneration中找到0本文中,我们探索了人工智能面临的另一个挑战:自动生成基于文本的虚拟世界,用于交互式小说。文本世界生成面临四个核心挑战:(1)常识知识:世界必须引用玩家已有的先验知识,以便玩家能够理解世界并对其如何交互建立期望。这在交互式小说中尤为重要,因为文本方式呈现的世界通常会遗漏许多细节(例如,锅在炉子上;厨房在房子里),这些细节在图形虚拟世界中可能是字面的。(2)主题知识:交互式小说通常涉及具有特定期望的主题或流派。例如,在奇幻世界中,动物通常可以说话。(3)连贯性:世界不能看起来是一组随机的位置。(4)自然语言:房间的描述以及允许的动作必须是文本形式,这意味着系统具备自然语言流畅性。我们提出了一种文本世界生成方法,根据一本书的情节构建一个交互性、可玩性和可探索性的世界。具体来说,我们采用了像福尔摩斯或长发公主这样的故事,这通常是线性阅读体验。这提供了主题和流派的先验知识。它还通过提供暗示的真实情况,使生成的世界更容易评估。我们的方法从输入故事情节中提取了一个部分连接的知识图,编码了有关位置、角色和物体以及它们之间的关系的信息。然而,故事通常并不明确包含完全填充此类图所需的所有信息。我们的方法使用从类似流派的故事训练中获得的主题知识来填补缺失的关系和关联-有关如何使用物体的隐含知识。完成的知识图用于引导位置、角色和物体的文本描述生成过程。游戏是根据知识图和相应的生成描述组装而成的。我们进行了两个独立的人类主体评估——一个用于知识图构建的第一阶段,另一个用于整个游戏创建过程——专门测试连贯性、趣味性和能力40银行保险箱,高约三英尺,宽约一英尺半。出口:贝克街和威尔逊的商店。你看到:阿奇、助手和约翰∙克莱。0动作:检查约翰∙克莱0约翰∙克莱矮胖,属于较高类别的人,约翰∙克莱的生死取决于他所持的手表。0动作:去贝克街0贝克街和伦敦的其他任何街道一样,是一个舞台布景,集中了社会的精英和最底层。0图1:深度神经生成的神秘场景中的示例玩家互动。0保持一个主题或流派。0相关工作0最近有许多研究致力于开发能够玩文字游戏的代理(Narasimhan, Kulkarni, and Barzilay 2015; Haroush et al. 2018;Cˆot´e et al. 2018; Hausknecht et al.2019a)。Ammanabrolu和Riedl(2019a;2019b)和Ammanabrolu和Hausknecht(2020)特别使用知识图作为用于游戏代理的状态表示。这些工作都集中在学习玩一组给定的交互式小说游戏,而不是生成它们。Permar和Magerko(2013)提出了一种生成自由形式活动所需的认知脚本的方法,这些脚本以想象游戏的形式存在。他们采用现有的认知脚本,并在更传统的概念融合(Veale, O’donoghue,and Keane 2000;Zook, Magerko, and Riedl2011)的基础上混合它们,以创建新的混合脚本。这项工作并不学习为交互式小说游戏生成内容,而是通过重新组合现有的、预定义的知识来生成内容。Scheherazade-IF(Guzdial et al.2015)是一个生成类似选择自己的冒险风格的超链接交互叙事的系统。它根据众包编写短篇小说的任务进行的故事学习关键情节元素的图形和它们之间的时间关系(Li et al.2012)。Womack和Freeman(2019)提出了一种围绕位置展开交互叙事的方法,其中句子被映射到属于某种流派的句子语料库中的真实世界GPS位置。与这些模型相比,我们的方法生成基于解析器的交互式小说,玩家通过键入文本命令进行操作,从而更具表达力。Ammanabrolu等人(2020)提出了一种生成技术,用于0图2:AskBERT构建的示例知识图。0本文关注的是基于文本的游戏生成问题,它从任务及其他过程性活动的语料库中学习,然后将其转化为给定的手工撰写的文本世界。本文主要关注前期工作中的世界生成问题;这两个系统互为补充。Light(Urbanek et al.2019)是一个众包数据集,其中包含基于文本冒险游戏对话的信息。它包含了设置在幻想世界中的地点、角色和物体的信息。Fan etal.(2019)使用Light来为基于文本的游戏生成世界。他们使用Light训练了一个基于神经网络的模型,以组合地点、角色和物体,构建一个互动世界。相比之下,我们关注从现有的故事情节中提取构建互动世界所需的信息。0世界生成0世界生成分为两个阶段。第一个阶段是从故事情节中提取部分知识图,然后使用主题常识知识填充。第二个阶段,将该图用作骨架,生成完整的交互式虚构游戏,为房间和嵌入式物体生成文本描述或“口味文本”。在本节中,我们提出了一种新颖的神经方法,以及每个阶段的规则指导基准。0知识图构建0第一个阶段是从描述地点、角色、物体和这些实体之间的关系的故事中提取知识图。我们提出了两种技术。第一种使用神经问答技术从故事文本中提取关系。第二种是作为基准提供的,使用OpenIE5,这是一种常用的基于规则的信息提取技术。为简单起见,我们主要考虑了位置-位置和位置-角色/物体之间的关系,分别在图2中表示为“旁边”和“有”边。02 https://github.com/dair-iitd/OpenIE-standalone(1)1250神经图构建虽然已经存在许多执行类似任务(如命名实体抽取和词性标注)的神经模型,但它们往往需要大量的专门标记的数据才能适应该任务。我们提出了一种新方法,利用训练用于上下文引导问答任务的模型来进行实体抽取,无需任务相关数据或微调。我们的方法名为AskBERT,利用了问答(QA)模型ALBERT(Lan et al.2019),通过向其提出相关问题来进行实体抽取。AskBERT包括图3中的两个步骤:顶点提取和图构建。第一步是从故事中提取一组实体(图的顶点)。我们希望提取关于角色、地点和物体的信息。这是通过向QA模型提问诸如“故事中有哪些角色?”的问题来实现的。Ribeiro,Guestrin和Singh(2019)已经表明,向QA模型提问问题的措辞是重要的,这构成了我们制定问题的基础-问题被设计成更有可能返回一个单一的答案,例如提问“故事中的地点在哪里?”而不是“故事中的地点在哪里?”特别是,我们注意到代词的选择可能至关重要;与“故事中的地点在哪里?”相比,“故事中的地点在哪里?”提取结果更加一致。当QA模型无法在故事中找到答案时,ALBERTQA还会输出一个特殊的标记。我们的方法利用这一点,通过迭代地向QA模型提问并屏蔽上一步骤输出的最有可能的答案,直到标记成为最有可能的答案。下一步是图构建。典型的交互式虚构世界通常以树的形式结构化,即除了位置之间可以有循环之外,其他地方都不能有循环。基于这个事实,我们使用一种方法,通过一次查询一个关系(或边),从顶点集合构建图。再次利用整个故事情节作为上下文,我们从先前提取的顶点集合中随机选择一个起始位置x,并提问“我可以从x访问哪个位置?”和“谁/什么在x中?”这些问题的措辞方法与顶点提取的问题类似。QA模型给出的答案与顶点集合进行匹配,通过选择与答案具有最佳词-标记重叠的顶点u来进行匹配。通过根据QA模型输出的答案的输出概率计算顶点x、u之间相关性的概率,添加顶点之间的关系。顶点x、u之间存在关系的概率为:0P ( x, u ) = p ( x, u ) + p ( u, x )0其中0p ( x, u ) 0o ∈ QA输出 p ( o ) 1 { u = argmax v ( v ∩o ) } (2)0是QA模型中重叠的标记中各个标记的概率之和。0故事情节 ALBERT-QA0ALBERT-QA0实体抽取问题0关系抽取问题0文本游戏知识图顶点集合0图3:AskBERT图构建的整体流程。0目标实体0故事情节0贾贝斯∙威尔逊(JabezWilson),一位伦敦当铺老板,前来请教夏洛克∙福尔摩斯和华生医生。 ...0他们是约翰∙克莱(JohnClay),他已经有着长期的犯罪活动历史,以及他的助手阿奇(Archie)。0问:约翰∙克莱(JohnClay)是谁? 答:0约翰∙克莱(JohClay)矮胖,是较高种类中的一员,他是一个靠他所经营的表积生活的人。0目标实体描述0基于条件的GPT-20生成提示0图4:神经描述生成的概述。0基于规则的图构建我们将我们提出的AskBERT方法与非神经的基于规则的方法进行了比较。该方法基于OpenIE5提取的信息,然后进行一些后处理,如命名实体识别和词性标注。OpenIE5结合了几篇现有论文中的一些前沿思想(Saha和Mausam 2018; Pal和Mausam 2016;Christensen等,2011),创建了一种强大的信息提取工具。对于给定的句子,OpenIE5生成多个三元组,格式为�实体,关系,实体�,作为句子的简洁表示,每个三元组都有一个置信度分数。这些三元组有时还带有指示三元组发生在某个位置的位置信息。与神经AskBERT模型一样,我们试图提取关于位置、角色和物体的信息。整个故事情节被传递到OpenIE5中,我们得到一组三元组。三元组上的位置注释用于创建一组位置。我们标记哪些句子包含这些位置。然后,结合基于标记名词短语的词性标注和NER,进一步过滤三元组集合,确定故事中的角色和物体的集合。通过将属于同一位置的三元组链接起来,构建图。虽然一些句子中对于OpenIE5来说包含非常明确的位置信息,但我们发现OpenIE5对于识别这些位置的能力有限,因此我们选择使用基于问答的方法。60标记出三元组中的位置,但大多数情况下并没有。因此,我们假设在显式提到位置的句子之间提取的所有三元组中,位置保持不变。例如,如果第1个句子中存在位置A,并且第5个句子中存在位置B,则认为在句子1-4中描述的所有事件都发生在位置A中。在图中将这些事件中提到的实体连接到位置A。0描述生成第二阶段涉及使用构建的知识图生成实体的文本描述,也称为风格文本。这涉及生成玩家“进入”位置时“看到”的描述以及每个物体和角色的简短简介。这些描述不仅需要忠实于知识图和整体故事情节中的信息,还需要包含风味并对玩家有趣。0神经描述生成在这里,我们通过借鉴基于条件的变压器生成方法(ShirishKeskar等人2019)来解决描述生成问题,并使用我们构建的知识图来帮助生成构成世界的文本描述。我们的方法概述如图4所示,并在图1中显示了一个示例描述。知识图在此过程中至关重要,有两个主要原因:(1)它使世界的结构在主题上保持一致-否则,世界将仅仅是一组随机的位置集合,(2)知识图中的关系用于构建用于调节描述生成网络的提示。对于故事中的任何给定实体,我们首先在故事情节中找到它,然后构建一个提示,该提示包括故事中直到并包括第一次提到该实体的句子,然后是一个要求描述该实体的问题。关于提示,我们发现直接的方法比开放式的句子完成更加一致。例如,“Q:王子是谁?A:”通常会产生比“你看到王子。他是/看起来”更符合故事中关于王子的已有信息的描述。此问题取决于连接实体与知识图中其他实体的关系,如图2所示,例如“nextto”指的是位置,因此会导致提示,例如“What does thebank vault looklike?”。对于我们基于变压器的生成,我们使用了预训练的355MGPT-2模型(Radford等人2019)在从维基百科收集的情节摘要语料库上进行了微调。用于微调的情节根据故事的流派进行了定制,以提供更相关的流派生成。关于使用的数据集的其他细节,请参见评估部分。这种方法在知识图词汇化技术和难以保持语义连贯性的开放式生成之间取得了平衡。0基于规则的描述生成在基于规则的方法中,我们利用TextWorld的内置文本游戏生成器的模板(Cˆot´e等人2018)生成0我们的图表的描述。TextWorld是一个开源库,提供了一种生成用于训练强化学习代理的文本游戏学习环境的方法,该方法使用预构建的语法。这里涉及的两个主要模板是TextWorld的房间介绍模板和容器描述模板,负责生成位置的描述和对象/角色的简介。位置和对象/角色信息来自之前构建的知识图。示例:0• 房间介绍模板:“这可能让你震惊,但你刚刚进入了一个# 位置名称 # ”0• 容器描述模板:“ # 地点名称 # 包含 # # 对象/人名称 #”0用 #符号包围的每个标记都可以使用一组选定的终端标记进行扩展。例如,# entered #可以用以下任何短语进行填充:entered;走进;跌入;移动到;偶然发现;进入。为了增加描述的相对多样性,还添加了额外的前缀、后缀和形容词。与神经方法不同,基于规则的方法无法生成有关位置/对象/角色属性的详细且富有风味的描述。然而,由于模板的特性,它在与知识图中包含的信息保持一致方面更好。0评估我们通过招募亚马逊机械土耳其人参与者进行了两组人类参与者评估。第一组评估测试了不同模型提取的图表的感知连贯性和流派或主题相似性。第二个研究比较了由不同方法生成的完整游戏,包括描述生成和游戏组装,这两个方面很难从图表构建中隔离出来。此研究还研究了游戏对玩家的趣味性以及整体连贯性和流派相似性。这两个研究都在两个流派中进行:神秘和童话故事。这样做部分是为了测试我们的方法在具有不同主题常识知识的不同流派中的相对有效性。使用的数据集是通过递归爬取机器人从维基百科中提取的故事摘要编制而成的。从这个过程中,从小说和短篇故事两个类别中编制了695个童话故事和536个神秘故事。我们注意到,神秘故事通常没有包含太多幻想元素,即它们是在我们现实世界中发生的神秘故事,例如福尔摩斯,而童话故事则与现实更加脱节。有关每个研究如何进行以及相应设置的详细信息,请参见下文。0知识图构建评估首先我们随机选择每个流派中的10个故事的子集,然后使用三种不同的模型提取知识图。每个参与者都会看到这三个70流派 类别 神经 规则0神秘0位置 7.2 3.50角色 4.8 4.10物体 3.2 12.20童话0位置 4.0 1.80角色 3.3 1.20物体 4.1 8.70表1:顶点统计:每个流派按类型的平均顶点数。随机模型的顶点统计与神经模型相同。0流派 统计 神经 规则 随机0神秘 平均边数 10.7 22.3 10.70平均度数1.63±1.77 2.15±0.38 1.63±1.630童话 平均边数 16.7 12 16.70平均度数1.73±2.04 1.98±0.29 1.73±1.640表2:边缘和度数统计:图表的平均边缘数、平均度数和度数标准差。0每个流派中的单个故事提取的图表,并要求对它们的连贯性和图表与流派的匹配程度进行排名。图表类似于图2中显示的图表,并按照顺序呈现给参与者。图表和流派的确切顺序也是随机的,以减少潜在的相关性。总体而言,本研究共有130名参与者。这确保了平均每个故事的图表被13名参与者看到。除了神经AskBERT和基于规则的方法,我们还测试了一种称为“随机”方法的神经模型变体。顶点提取方法与神经方法相同,但我们选择随机连接顶点,而不是选择QA模型中最自信的顶点。我们用起始位置实体初始化图表。然后,我们从顶点集中随机采样,并将其连接到图表中的随机采样位置,直到每个顶点都被连接。这种特定的消融实验旨在测试我们的神经模型预测实体之间关系的能力。它使我们能够观察与我们测试的每个指标的每个相关顶点的连接精确度如何。为了在不同方法产生的图表之间进行公平比较,我们随机删除了初始图表中的一些节点和边,以使每个故事流派中图表的最大位置数和每个位置的最大对象/人数相同。结果显示在表3中。我们显示了每个问题的每个模型的中位数排名在不同流派中。排名数据通常密切相关,因此我们对三个模型之间进行Friedman检验,以验证结果在统计上的显著性。这在表中表示为p值(星号表示p <0.05的显著性)。在需要进行特定模型对之间的比较时,我们还进行Mann-Whitney U检验,以确保排名差异显著。0题材问题 神经 规则 随机 p-value0神秘题材 类似题材 2 1 3 0.350连贯性 1 2 3 0.049�0童话故事 类似题材 1 3 2 0.014�0连贯性 1 3 2 0.013�0表3: 知识图谱评估研究结果的中位数排名。0在神秘题材中,基于规则的方法在题材相似性方面通常排名第一,其次是神经和随机模型。然而,这个结果并不具有统计学意义,很可能表明所有模型在这个类别中的表现大致相同。神经方法被认为是最连贯的,其次是规则和随机。对于童话故事,神经模型在参与者提问的两个问题上排名更高。在这个题材中,随机神经模型的表现也优于基于规则的方法。表1和表2显示了构建的知识图谱的统计数据,包括顶点和边的数量。我们可以看到,基于规则的图构建在位置、角色和实体之间的关系方面具有较少的数量,但总体上拥有更多的对象。对象数量的增加很可能是由于基于规则的方法无法正确识别位置和角色。在神秘题材中,各种方法之间的差距不如童话故事中明显,事实上,基于规则的图比神经图具有更多的关系。随机模型和神经模型在所有类别中实体的数量相同,但随机模型在关系数量上的方差较低。在这种情况下,与童话故事相比,神秘题材的方差较低。当将这些结果与表3中的结果结合在一起时,似乎表明利用AskBERT中的主题常识进行图构建直接导致更连贯且更容易保持题材的图。这在童话故事中尤为明显,因为主题常识和日常常识在这种情况下的差异更大。0完整游戏评估0这个参与者研究旨在测试涵盖世界生成章节中描述的整体游戏制定过程。从用于图评估过程的10个故事中手动选择了每个题材的一个故事。从该故事的知识图谱中,我们使用先前描述的神经、规则和随机方法生成描述。此外,我们在这里引入了一个人工编写的游戏,为每个故事提供额外的基准。这位作者对文字冒险游戏和侦探神秘和童话题材都很熟悉。为了确保公平比较,我们确保最大数量的位置和最大数量的角色/物体每个位置与其他方法匹配。在设定了一般的格式期望后,作者阅读了选定的故事,并通过相应的三个步骤过程识别了最重要的 n 个实体80题材问题 神经 vs. 随机 (%) 神经 vs. 规则 (%) 神经 vs. 人工 (%)0神秘题材0连贯性 64 vs. 36* 55 vs. 45* 31 vs. 69*0类似题材 55 vs. 45 62 vs. 38* 25 vs. 75*0童话故事0趣味性 58 vs. 42 63 vs. 37* 36 vs. 64*0连贯性 75 vs. 25* 75 vs. 25* 55 vs. 450类似题材 75 vs. 25* 63 vs. 37* 31 vs. 69*0表4: 完整游戏评估参与者研究结果,显示了将基线展示给神经模型的参与者百分比。*表示统计显著性 ( p < 0.05 )。0通过映射实体之间的位置关系,并根据所在位置,整体故事情节和背景主题知识合成实体的口味文本,生成特定故事的知识图谱和相关描述,然后使用文本游戏引擎Evennia自动将其转化为完全可玩的文本游戏。我们选择Evennia是因为它的灵活性和可定制性,以及方便的网页客户端用于最终用户测试。数据结构被转化为Evennia内的构建者命令,用于构建游戏世界的各种布局、口味文本和规则。用户被放置在游戏中不同的世界位置之一的“房间”中,并被要求探索他们所能访问的游戏世界。用户通过在房间之间移动和调查物体来实现这一目标。每次进入新的房间或调查物体时,玩家已探索实体的总数将显示为他们的得分。每个参与者被要求玩神经游戏,然后在一个题材中玩另一个来自三个额外模型之一的游戏。每个游戏的完成标准是在游戏中收集到一半的总分,即探索所有可能房间的一半并检查所有可能物体的一半。这为参与者提供了多种可能的完成游戏的方法。完成后,参与者被要求根据整体感知的连贯性、趣味性和与题材的一致性对这两个游戏进行排名。我们还提供了一个必需的初始教学游戏,演示了所有这些机制。参与者玩游戏的顺序也像图形评估一样是随机的,以消除潜在的相关性。我们总共有75名参与者,神秘题材39名,童话故事36名。每个玩家都会玩神经模型创建的游戏以及其他方法中的一个题材。这使我们在神秘题材中的其他方法平均有13个,童话故事中有12个。完整游戏研究结果的摘要显示在表4中。由于本研究中进行的比较都是基于我们的神经模型与基线模型之间的配对比较,因此以有多少百分比的参与者更喜欢基线游戏而不是神经游戏的形式呈现。再次强调,由于这是高度相关的排名数据,我们对每对之间进行曼-惠特尼U检验,以确保排名差异显著。这03 http://www.evennia.com/0在表中也说明了这一点。在神秘题材中,与规则或随机方法相比,神经方法通常被更多的参与者青睐。人工制作的游戏胜过它们所有。一个显著的例外是参与者认为基于规则的游戏比神经游戏更有趣。童话题材中的趋势总体上是相似的,但也有一些显著的偏差。第一个偏差是基于规则和随机方法在这个题材中的表现明显不如神经方法好。我们还看到神经游戏与人工制作的游戏一样连贯。与前一项研究一样,我们假设这很可能是由于基于规则的方法更适合于神秘题材,这种题材通常更平凡,包含的奇幻元素更少。由此可以推断,童话故事中的主题常识与日常常识的重叠度较低。这有几个含义,其中之一是该主题具体信息在OpenIE5之前不太可能被看到。这在基于规则的模型在这个题材中的性能有所提升时得到了证明,无论是在趣味性还是连贯性方面。题材差异也可以从随机模型的表现中观察到。与我们的神经模型相比,这个模型也存在缺陷,尤其是在童话情境中。这意味着使用主题相关信息从AskBERT中填补知识图谱中的空白会得到更有趣和连贯的描述和游戏,尤其是在主题常识与日常常识不一致的情况下。0结论0流程式世界生成系统需要具备语义一致性、符合主题和日常常识理解,并保持整体趣味性。我们描述了一种将线性阅读体验转化为交互叙事体验的方法。我们的方法AskBERT通过使用主题常识提取和填充知识图,然后将其作为骨架填充世界的其余部分。我们人类参与者研究的关键发现表明,在主题与日常常识理解背离的情况下,构建一个主题一致的知识图对于整体的一致性和趣味性的感知至关重要。90参考文献Ammanabrolu, P., and Hausknecht, M. 2020.Graph con- strained reinforcement learning for naturallanguage action spaces. In International Conferenceon Learning Represen- tations . Ammanabrolu, P., andRiedl, M. 2019a. Transfer in deep reinforcementlearning using knowledge graphs. In TextGraphs-13 atEMNLP-19 , 1–10. Hong Kong: Associ- ation forComputational Linguistics. Ammanabrolu, P., and Riedl,M. O. 2019b. Playing text-adventure games withgraph-based deep reinforcement learning. InProceedings of 2019 Annual Conference of the NorthAmerican Chapter of the Association for Computa-tional Linguistics: Human Language Technologies,NAACL- HLT 2019 . Ammanabrolu, P.; Broniec, W.;Mueller, A.; Paul, J.; and Riedl, M. O. 2020. Towardautomated quest generation in text-adventure games.In Proceedings of the International Conference onComputational Creativity ICCC-20 . Christensen, J.;Soderland, S.; Etzioni, O.; and Mausam. 2011. Ananalysis of open information extraction based onsemantic role labeling. In Proceedings of the sixth0Cˆot´e, M.-A.; K´ad´ar, ´ A.; Yuan, X.; Kybartas, B.;Barnes, T.; Fine, E.; Moore, J.; Hausknecht, M.; Asri, L. E.;Adada, M.; et al. 2018. Textworld: A learningenvironment for text-based games. arXiv preprintarXiv:1806.11532 . Fan, A.; Urbanek, J.; Ringshia, P.;Dinan, E.; Qian, E.; Karamcheti, S.; Prabhumoye, S.; Kiela,D.; Rocktaschel, T.; Szlam, A.; et al. 2019. Generatinginteractive worlds with text. arXiv preprintarXiv:1911.09194 . Guzdial, M.; Harrison, B.; Li, B.; andRiedl, M. 2015. Crowdsourcing open interactivenarrative. In FDG . Haroush, M.; Zahavy, T.; Mankowitz,D. J.; and Mannor, S. 2018. Learning How Not to Act inText-Based Games. In Workshop Track at ICLR 2018 ,1–4. Hausknecht, M.; Ammanabrolu, P.; Cˆot´e, M.-A.;and Yuan, X. 2019a. Interactive �ction games: A colossaladventure. CoRR abs/1909.05398. Hausknecht, M.;Loynd, R.; Yang, G.; Swaminathan, A.; and Williams, J. D.2019b. Nail: A general interactive �ction agent. CoRRabs/1902.04259. Lan, Z.; Chen, M.; Goodman, S.;Gimpel, K.; Sharma, P.; and Soricut, R. 2019. ALBERT: ALite BERT for Self- supervised Learning of LanguageRepresentations. arXiv e-prints arXiv:1909.11942. Li, B.;Lee-Urban, S.; Appling, D. S.; and Riedl, M. O. 2012.Crowdsourcing Narrative Intelligence . In Advances inCog- nitive Systems , volume 1, 1–18. Narasimhan, K.;Kulkarni, T.; and Barzilay, R. 2015. Lan- guageUnderstanding for Text-based Games Using Deep Re-inforcement Learning. In Conference on EmpiricalMethods in Natural Language Processing (EMNLP) .Pal, H., and Mausam. 2016. Demonyms and compoundrelational nouns in nominal open ie. In Proceedings ofthe0第5届自动化知识库构建研讨会 , 35–39. Permar, J., andMagerko, B. 2013. A Conceptual Blending Approach tothe Generation of Cognitive Scripts for Interac- tiveNarrative. In 第9届AAAI人工智能与交互数字娱乐会议(AIIDE’13) . Radford, A.; Wu, J.; Child, R.; Luan, D.;Amodei, D.; and Sutskever, I. 2019. Language modelsare unsupervised mul- titask learners. Ribeiro, M. T.;Guestrin, C.; and Singh, S. 2019. Are red roses red?evaluating consistency of question-answering models.In 第57届计算语言学协会年会论文集 , 6174–6184. Saha,S., and Mausam. 2018. Open information extrac- tionfrom conjunctive sentences. In第27届国际计算语言学会议论文集 , 2288–2299. ShirishKeskar, N.; McCann, B.; Varshney, L. R.; Xiong, C.; andSocher, R. 2019. CTRL: A Conditional TransformerLanguage Model for Controllable Generation. arXive-prints arXiv:1909.05858. Urbanek, J.; Fan, A.;Karamcheti, S.; Jain, S.; Humeau, S.; Dinan, E.;Rockt¨aschel, T.; Kiela, D.; Szlam, A.; and We- ston, J.2019. Learning to speak and act in a fantasy textadventure game. In EMNLP-IJCNLP论文集 , 673– 683.Veale, T.; O’donoghue, D.; and Keane, M. T. 2000.Compu- tation and Blending. 认知语言学11(3/4):253–282. Womack, J., and Freeman, W. 2019.Interactive narrative generation using location andgenre speci�c context. In 互动叙事 , 343–347. Yin, X., andMay, J. 2019. Comprehensible context-driven textgame playing. CoRR abs/1905.02265. Zook, A.;Magerko, B.; and Riedl, M. 2011. Formally mod- elingpretend object play. In第8届ACM创造力与认知会议论文集 , 147–156. New York,NY, USA: ACM.
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 探索数据转换实验平台在设备装置中的应用
- 使用git-log-to-tikz.py将Git日志转换为TIKZ图形
- 小栗子源码2.9.3版本发布
- 使用Tinder-Hack-Client实现Tinder API交互
- Android Studio新模板:个性化Material Design导航抽屉
- React API分页模块:数据获取与页面管理
- C语言实现顺序表的动态分配方法
- 光催化分解水产氢固溶体催化剂制备技术揭秘
- VS2013环境下tinyxml库的32位与64位编译指南
- 网易云歌词情感分析系统实现与架构
- React应用展示GitHub用户详细信息及项目分析
- LayUI2.1.6帮助文档API功能详解
- 全栈开发实现的chatgpt应用可打包小程序/H5/App
- C++实现顺序表的动态内存分配技术
- Java制作水果格斗游戏:策略与随机性的结合
- 基于若依框架的后台管理系统开发实例解析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功