没有合适的资源?快使用搜索试试~ 我知道了~
多轮QA系统的RNN上下文方法
10750多轮QA:面向目标导向系统的RNN上下文方法0Martino Mensio Politecnico diTorino Torino, Italymartino.mensio@studenti.polito.it0Giuseppe Rizzo IstitutoSuperiore Mario BoellaTorino, Italygiuseppe.rizzo@ismb.it0Maurizio MorisioPolitecnico di TorinoTorino, Italymaurizio.morisio@polito.it0摘要0QA系统提供了一个人性化的界面,用于浏览从百科全书到特定领域的知识。通常,QA系统被设计为在一次特定问题的回答中提供一次回答(所谓的单轮),而现在的最先进系统在这种情况下达到了稳健的性能。然而,大多数与QA系统的交互都是基于多次问答对的握手,其中人类进一步完善问题,而系统可以收集必要的信息并通过多轮生成一个令人信服的最终答案。在本文中,我们研究并实验了一个适用于给定特定领域知识和可配置目标的多轮QA系统。我们的方法将整个对话模型化为一系列轮次,即问题和答案,使用递归神经网络首先训练以理解自然语言,使用领域特定交互的先验知识对实体和意图进行分类,并根据用作背景知识的领域提供答案。我们将我们的方法与最先进的基于序列的意图分类方法进行了比较,使用了一个众所周知和标准化的黄金标准,观察到F1增加了17.16%。结果显示了该方法的稳健性,竞争结果激励了在多轮QA场景中的采用。0CCS概念0• 人类中心计算 → 自然语言界面;• 计算方法 → 神经网络;0关键词0多轮问答;对话代理;面向目标的对话代理;递归神经网络0ACM参考格式:Martino Mensio,Giuseppe Rizzo和MaurizioMorisio。2018年。多轮QA:面向目标导向系统的RNN上下文方法的意图分类。在2018年Web会议伴侣,2018年4月23日至27日,法国里昂。ACM,纽约,美国,6页。https://doi.org/10.1145/3184558.31915390本文发表在知识共享署名4.0国际(CC BY4.0)许可下。作者保留在其个人和公司网站上传播作品的权利,并附上适当的归属。WWW'18伴侣,2018年4月23日至27日,法国里昂© 2018IW3C2(国际万维网会议委员会),根据知识共享CC BY 4.0许可发布。ACM ISBN978-1-4503-5640-4/18/04。https://doi.org/10.1145/3184558.319153901 引言0问答(QA)系统[26]被定义为提供自然语言界面的软件组件,用于检索通常存储在结构化表格[13]、数据图[6,33]或文档集合中的信息。它们通常被定义为首先理解自然语言并在单个轮次(即一个问题和一个答案)中提供回应的搜索工具。通常不会在可能的下一个询问中携带上下文。系统必须单独理解它们。随着持续向以语音为先的技术过渡,我们观察到目标导向代理的大规模采用。它们是领域特定QA系统[13]的特例,不仅限于检索信息,还可以完成一些操作[7],因此它们提供了一个完成交易的对话界面。交易被定义为朝着特定目标的一组交互,例如购买票,其中用户有自己的目标(称为意图)并与系统交谈以实现目标。交易可以有不同的轮次,因为系统可能需要用户的一些信息,而用户可以完善他的初始目标。通常使用有限状态机[2]来跟踪对话的所有可能路径。在这些系统中,用户通常很难中断一个意图并重新开始对话,而不使用特殊命令(如“停止”或“重新开始”)。此外,QA系统在处理单个问题时缺乏利用周围上下文的能力,而面向目标的代理提供的界面通常可以回答关于预定数量的事物的简单问题。在这种情况下,本研究提出了一种能够以多轮方式管理交互上下文的系统。所提出的工作已经在面向目标的代理中进行了研究和应用,并且可以通过考虑粗粒度的句子分类以类似的方式应用于多轮QA系统。我们的方法旨在提供交互上下文,即当前句子的周围环境,通过考虑先前用户的意图和先前代理的句子,以更好地理解用户发送的当前句子。通过能够动态地将句子置于上下文中,通过理解何时保留上下文并何时丢弃上下文,遵循用户和代理轮次中的某些信号,可以成为在高度异步的情况下对被询问的代理的重要特性(特别是在用户同时使用多个小部件的移动设备中)。在这些情况下,使用基于时间的会话拆分可能会产生误导,工作解决方案应仅依赖内容。已经对这个上下文理解问题进行了一些研究[5,9,10,25,37],在不同的复杂性水平上有不同的变化:从简单地反馈上一轮的一些特征,到记忆0赛道:第一届混合结构化和非结构化知识问答国际研讨会(HQA'18)WWW 2018,2018年4月23-27日,法国里昂1https://research.fb.com/downloads/babi2http://trec.nist.gov/3http://trec.nist.gov/pubs/trec10/t10_proceedings.html10760这些灵感来自于可能需要大量训练样本的神经网络[28]。受此启发,我们想要了解交互上下文在理解句子过程中的相关性。本文的其余部分结构如下:在第2节中,我们介绍了我们的方法和实验,并列出了面向目标的问答代理和领域特定问答系统之间的特殊性差异。第3节介绍了我们的方法,第4节首先描述了实验设置,然后讨论了方法的性能。第5节总结了本文,并概述了未来的研究活动。02 背景0会话代理的起源源于闲聊代理。这些系统的诞生是为了克服图灵测试[32]最初提出的挑战,并旨在模拟人类之间的自然语言对话。[35]中使用的方法实现了一组手工制作的规则:在输入句子上执行的模式用于在规则集上找到匹配项,然后从一组模板中生成响应。代理的记忆(用于以连贯的方式回答下一个问题)由这些规则管理,设置状态变量并在必要时检索它们。这些代理只能回答设计用于的问题,而且交互在信息角度上没有意义,因为对话目标只是让对话者认为自己正在与理解对话的东西交谈。本节研究和阐述了会话系统的分裂,一个朝着丰富的询问,另一个朝着更结构化的对话,强调了理解部分的差异和共同点。我们总结了两者之间的接触点以及如何将它们合并以提供更智能的交互。02.1 超越基于规则的问答系统0在问答系统方面,已经进行了大量研究,旨在构建能够通过提供易于使用的对话界面来回答问题的系统。对于这种类型的系统,信息通常存储在知识库(KB)中,可以是以结构化表格或图形的形式,也可以是以自然语言编写的文本文档。已经出现了两种主要的问答系统范式:基于知识的和基于信息检索的非结构化系统。对于这两种系统,目标都是通过执行三个步骤来提供答案:i)理解问题(提取所有有用的参数),ii)检索信息(通过查询或一些更非结构化的形式与KB进行对比),以及iii)将结果组合并以文本形式呈现。使用结构化知识的方法范围从手工制作或动态构建的模板[1],到使用中间逻辑形式[4,14,30],或者使用与问题在一个特别生成的嵌入空间中的实体接近度和关系的某些度量[22]。在这些方法中,自然语言处理方法(如命名实体识别和依赖解析)起着关键作用,可以对句子进行细粒度的分类。对于非结构化信息检索,0当信息不以结构化表格或图形的形式存在,而只是一组自然语言文档时,查询的构建不是通过建立查询,而是以非结构化形式进行搜索,通常是通过段落检索[34]。这是通常在搜索引擎中发生的互动,其中文档根据与问题的相关性(关键词或同义词的存在)进行排序。第二阶段是对搜索候选项进行处理以构建答案。这需要更深入地理解问题(所需的响应是什么)和检索到的片段[31]。然而,这些系统在句子上下文化方面存在很大的局限性:每个问题都是独立回答的。这使得互动非常僵硬,因为用户不能轻松地引用先前提到的实体,也不能在不重新制定整个约束集的情况下细化问题。这是影响以两种方式获取信息的问答系统的问题。即使在bAbI1中,当向系统提出多个问题时,每个问题也是独立的。系统的记忆和上下文仅适用于包含事实的句子。无法进行后续问题。据我们所知,唯一对上下文化理解进行研究的是TREC2“上下文建议”赛道。多年来,该赛道使用了两种类型的上下文:话语和用户。第一种是在TREC10中引入的,旨在执行引用消解[16,29]:句子中的一些指示器(如代词,确定的名词或省略)用于查找包含引用实体的先前轮次,并构建一个模型,有选择地保留查询术语,遵循中心理论[15]。相反,用户上下文将信息检索转化为推荐问题,其中项目是地点(以自然语言文本的形式呈现),应该根据用户的位置和偏好进行推荐。02.2 目标导向的代理0目标导向的代理进入问答领域,作为特定领域的系统,使用户能够与某些服务进行交互以执行不同的任务,而不是作为执行高级查询的自然语言界面。作为问答分支,它允许用户获取特定领域的信息。但它也可以用于执行一些操作,以数字个人助理的形式出现在不同的特定领域中:预订和旅行服务只是例子。词语“目标”用来描述对话,其中每一方都知道他们交流的目标,一方使用一些服务并接收一些信息,另一方提供这些服务和信息。对话本身不是闲聊系统中的目标,如[19]所解释的那样。这些系统在语言理解部分与结构化和非结构化问答类似:对句子进行分类并从中提取一些参数。但是存在一些关键的区别:0主要关注点:提供对可用操作的访问和管理交互式引导过程非常重要。0Track: 第一届混合结构化和非结构化知识问答国际研讨会(HQA'18)WWW 2018年4月23-27日,法国里昂An interesting approach that combines information retrievalmethodologies using structured knowledge with goal-oriented sys-tems is proposed in [13], which aims to overcome the main issueof goal-oriented systems: learn how to extract information from aKB without the need of handcrafted dialogue state tracking. This ispossible thanks to the KB structure that enables a good exchangeof data between the conversation and the KB without the need ofintent tracker and relying only on latent neural embeddings. Thisapproach mainly is a sequence-to-sequence generator enriched bya KB that provides triples of (subject, relation, value). The valuesare available to the output generation thanks to some placeholdersin the output dictionary in the form of subject_relation, that islater replaced by its value after decoding. As can be derived, thisapproach really combines the techniques of QA over structuredknowledge with goal-oriented conversations. But it has two mainlimitations. The first one is that the KB entries cannot be searchedby value, so a question like “Which appointments I have at 9pm?”cannot generate a response targeted to the value “9pm” because thevalue is not considered. The second limitation is that this approachhas no way to perform actions and therefore can act as a readonlyservice. Removing the intermediate handcrafted level and lettingthe conversation flow in encoder-decoder fashion, actually makesimpossible to call some actions, unless other techniques are foundto semantically correlate them.3APPROACH10770需要处理对话状态的系统。对复杂的询问的理解并不是重点;搜索能力有限:与问答系统不同,对知识库的访问可能受限于特定的可用操作,这是由于有限的远程API或预先存在的应用逻辑所导致的。这些操作可以对应于有限的问题类型和有限的参数集;双向问答:系统可能需要从用户那里获取一些缺失的参数,从而使交互更加复杂;与动态数据的交互:存储的信息可能会因为资源的可用性而经常发生变化(例如提供有关交通方式或其他动态领域的信息)。此外,一些操作实际上可以修改存储的信息(考虑在餐馆预订、占用桌子时)。0通常选择构建这种系统的策略,排除了完全由代理拥有对话主动权的基于按钮的流程,是将用户表达的句子映射到一组固定的意图(句子类型)和槽(提到的实体,连同角色一起用作参数)。这两个任务的方法,即意图分类和槽填充[23],通常使用递归神经网络(RNN)[12]来处理单词序列。目前最先进的条件是使用联合方法[21],该方法使用了最初用于翻译[11]的编码器-解码器结构,以执行序列标记(槽标记)和句子分类(意图)。这种方法在处理单轮对话时非常有效:每个句子都是自主处理的。在尝试处理多轮交互时,会遇到很多问题。首先是后续问题的存在:在没有明显证据的情况下解决对实体的引用并不容易。然后,代理可能会向用户提问以获取一些缺失的必需参数:用户的回答可以是完全结构化的,其中有强调存在的实体的标志,也可以只包含需要进一步处理的文本。目标导向的代理通常具有对话状态跟踪组件来管理多轮交互,但是理解动态性,即何时保留交互上下文,何时丢弃它,需要从当前句子接收信号,这是一个非常关键的问题。最常见和简单的解决方案是具有通用命令,可用于停止当前事务并开始新事务。一些最近的方法[7, 9,10]解决多轮问题使用了记忆网络,应用于像对话状态跟踪挑战[36]中一样跟踪用户目标。2.3 联系点0正如已经注意到的那样,这两个宏观类别的对话系统将从相互整合中受益。从目标导向的角度来看,缺失的一点是能够回答复杂的查询。对于这个问题,可能的解决方案是进行分层句子分类:粗粒度类型可以继续对应于意图,因为它们在整个句子上传达特征值,而可以使用问答系统的技术来进行细粒度分析,以构建详细的结构化查询。对于这第二步,必须对句子进行详细的解析,以捕捉所提及的所有实体及其关系。这种统计解析需要一个本体论,其实体和关系可以动态地进行探索,而不仅仅通过有限的一组API可见。相反,问答系统需要更自然和对话式的交互,这是由一些上下文所实现的。上下文可以有三种类型:0[13]提出了一种将使用结构化知识的信息检索方法与目标导向系统相结合的有趣方法,旨在克服目标导向系统的主要问题:学习如何从知识库中提取信息,而无需手工制作的对话状态跟踪。这是可能的,因为知识库结构使得对话和知识库之间的数据交换良好,而无需意图跟踪器,仅依赖于潜在的神经嵌入。这种方法主要是一个由知识库增强的序列到序列生成器,它提供了 (主题、关系、值) 的三元组。通过输出字典中的一些占位符(以 subject_relation的形式),值可以在解码后替换为其值,从而使值可用于输出生成。可以看出,这种方法真正将结构化知识的问答技术与目标导向对话相结合。但它有两个主要限制。第一个限制是无法通过值搜索知识库条目,因此像“我在晚上9点有哪些约会?”这样的问题无法生成针对值“9点”的响应,因为值不被考虑在内。第二个限制是这种方法无法执行操作,因此只能作为只读服务。去除中间的手工级别,让对话以编码器-解码器的方式流动,实际上使得调用某些操作变得不可能,除非找到其他技术来语义地相关联。3 方法0领域:专业化的知识,包括领域特定的数据集,以更好地理解如何将自然语言句子转化为问句。这已经包含在领域特定的问答系统中;交互:超越了固定形式的原子问答对。人与人之间的对话很大程度上依赖于交互环境,明确或隐含地提到之前说过的事情。多轮环境可以允许用户提问,然后在后来对其进行细化,通过简单地添加新参数而不是重新构建完整的独立问句,或者对之前的结果进行后续问题;用户:更好地了解提问者的用户可以有利于找到与他更相关的结果。0在本节中,我们首先概述了我们的方法及其特点,然后我们描述了与现有技术[21]相比的创新点。3.1高级概述0我们的方法使用双向句子编码,将单词级别的嵌入值总结为一个低维数组,将所有单词嵌入提供为输入后的输出。不仅用户的单词,还有0跟踪: 第一届混合问题回答与结构化和非结构化知识研讨会(HQA'18)WWW 2018年4月23日至27日,法国里昂Figure 2: The modifications to [21].10780图1:使用单词级双向RNN(图中的蓝色)将句子编码为固定长度的向量。这第一个RNN的输出传递给第二个RNN(图中的红色),该RNN模拟用户句子在不同时间步的意图传播。对于每个用户句子,这最后一个RNN(红色)产生上下文化的意图值。代理的词语为绿色,而人类生成的词语为白色框。0在单轮NLU方法中,代理的句子表示用于对一组意图进行分类[21]。相反,我们的表示被馈送到顶层RNN以提供依赖于当前句子和周围交互上下文的输出。解决了三个主要挑战:在多轮环境中检测意图的变化:换句话说,动态地理解何时某个会话(与单个意图相关的一系列消息)结束并开始新的会话。这对应于对每个输入句子选择是保留先前意图值还是考虑当前输入的一些证据。第一种情况发生在输入句子是先前会话的一部分,并且用户只是继续与相同的初始意图进行交互。而第二种情况是当前句子中表达了一个新的意图,表示意图发生了变化;使用RNN捕获意图之间的依赖关系:通过捕获意图值的序列,可以更好地预测句子,因为它们隐含地参考了交互的某些上下文,这对于那些不太表达性的句子可能非常有用;考虑当前代理对话的词语:了解用户回复的内容可以帮助将可能没有明显意图指示符的新句子置于上下文中。图1说明了我们的方法。文献中还对在交互上下文中进行句子分类的问题进行了其他研究。本文提出的方法与[37]中提出的方法不同,[37]中的方法是在分类领域中,即在分层意图分类中的高级类别,使用先前模型在单词级别的预测结果与每个单词向量连接。本文提出的方法在先前分类使用的位置(不是与输入单词一起,而是在句子级别上使用高级RNN)以及在将单词级特征总结为句子级特征并通过学习网络考虑下一次交互方面也有所不同。0图2:对[21]的修改03.2 创新点0我们的方法引入了两个主要的创新点:首先,如图2所示,我们考虑了原始网络[21]输出的意图logits4之上的先前意图值。具体而言,先前的意图值被转换为一个one-hot向量,作为先前的内部状态ht−1传递给RNN单元。已经研究了两种类型的单元:GRU单元[37]和LSTM单元[18],LSTM单元通常被广泛使用,并且具有两个向量在时间步长上传递:单元状态ct−1和输出向量ht−1。GRU单元的参数比LSTM单元少,并且在不同领域上已经显示出相同的性能。因此,在第4.2节中,LSTM和GRU单元都被认为是有效的替代方案。RNN单元与大小为n_intents的所有输入和输出一起使用,将当前时间步的logits作为当前时间步的输入xt与先前的意图组合在一起,并通过内部门输出表示当前意图的上下文化值。关键要素是重置门和更新门,它们是单元内部的,它们允许保留先前的意图值,考虑当前句子的特征,并学习意图之间的依赖关系。RNN的这种分层使用(一种用于编码句子,另一种用于考虑句子级特征链)也在[27]中提出,但是在查询建议领域中:与所提出的方法的区别在于顶层RNN输出一个编码值,用于解码,而这里的意图RNN在意图空间中工作,其隐藏维度是意图词汇的大小,因此直接输出通过softmax传递的意图logits生成分类标签。此外,我们的方法将先前的代理对话与当前的用户对话连接在一起,遵循这样一个思想,即了解用户回复的内容可以帮助更好地理解他的请求。04 逻辑回归只是通过softmax等函数将尚未归一化为概率分布的值进行预测的输出。0赛道:第一届混合结构和非结构化知识问答国际研讨会(HQA'18) WWW 2018,2018年4月23-27日,法国里昂10790为了在字典可能很小的较小数据集上获得更好的性能,并且为了准备好接收到字典外单词的在线设置,输入嵌入层的选择是使用在CommonCrawl语料库上预训练的GloVe[24]词向量。这样,涵盖了110万个不同的英文单词的嵌入值被设置为不可训练。04 实验0我们首先描述使用键值检索数据集的基本原理,然后介绍实验协议,最后介绍评估结果。04.1 数据集0实验的设置需要搜索一个标准化的基准数据集。ATIS数据集[17]在意图分类和槽填充的两个任务上被广泛使用,但由于其单轮导向性,不适合实验设置。多轮问题主要在专有数据集[5,25,37]上进行分析,或者需要参加挑战(如对话状态跟踪挑战[36])。其他主要关注记忆网络和简单问题的数据集对于多轮目标导向问题(bAbI)不是很相关。Frames数据集[3]是公开可用的,但只包含一个意图(“book”),并且更注重用户和机器行为的跟踪。唯一找到的数据集是在[13]中发布的键值检索数据集。该数据集包含与驾驶员和汽车助手之间的对话相对应的多轮会话。每个对话以一个用户句子开始,该句子确定三个意图之一,并且接下来的轮次由双方使用来达到驾驶员的目标。每个句子后面都注释了一些槽,以指示系统应该继续考虑的上下文中的实体。关于槽的注释,它们是可用的,但不是直接注释的:每个槽(15种类型可用)都存储有其值,但在识别句子中的位置时存在一些问题。所选方法在训练时还提供槽标签的输出,但在意图的角度下仅在此进行分析,因此这实际上不是一个问题。因此,该数据集满足我们的需求:每个句子都带有其发言者的注释,意图值可用。预处理由三个步骤组成:i)通过复制值将意图从会话级别注释到句子级别;ii)连接所有句子,删除仅在意图值上保留的会话概念;iii)将仅驾驶员句子视为样本,每个样本与当前和前一个意图值以及代理的前一个句子一起存储。在这种样本设置下,训练集上有6429个样本中的1583个意图更改,而测试集上有820个样本中的189个更改。04.2 评估协议和结果0目标是衡量系统对意图的建模程度。我们评估其值的转换。因此,最合适的度量是意图更改的F1值。由于先前状态0表1:测试测试中的F1值。F1分数表示表中指示的给定时期达到的最大值。0行 方法 F1(意图)时期01 我们的LSTM方法 0.9987 7 2 我们的无代理词LSTM方法 0.9987 83 我们的GRU方法 0.9975 14 4 [21] 使用代理词扩展 0.9951 5 5我们的无代理词GRU方法 0.9585 9 6 [21] 0.8524 807 使用预训练的词嵌入的 CRF 0.7049 100 8 使用单词的 CRF 0.49761000在真实条件和预期条件下都进行了修复,考虑到 F1测量,评估状态转换或目标意图会得到相同的值。因此,F1测量是在当前句子意图上进行评估的。50我们将我们的方法与单轮对话的最新方法进行了比较[21]。为了分别衡量在第3.2节中描述的两个修改的效果,我们还考虑了另外两种方法:第一种方法只考虑了原始的单轮网络,并添加了代理词,而第二种方法则考虑了提出的多轮网络,但没有代理词(只在意图值上添加了顶级 RNN)。我们还将比较扩展到了CRF[20],该方法仅在单词级别上应用,以单词作为输入和意图标签作为输出。在这种情况下,使用了两种不同的配置:第一种配置使用小写单词作为输入特征,而第二种配置使用了预训练的词嵌入[8]。表1报告了所选方法的 F1测量结果。从所获得的结果可以看出,交互上下文的作用对于进行更好的理解至关重要。自然语言对话中的句子之间存在很大的依赖关系,这是双方使用的句子之间的重要联系。实验结果还表明,意图的变化可以在输入样本序列上正确检测到。我们可以观察到,仅考虑意图的先前值而不连接代理词,也会相对于单轮模型有所增加。然后,通过观察行对(1,2)、(3,5)和(4,6)之间的 F1测量变化,我们可以注意到代理词本身在得分和迭代次数方面都起到了重要的贡献。同时结合这两个修改有助于在得分上稍微提高,并更快地达到最高得分。与简单的 CRF 方法的比较突显了使用 RNN对正确编码的句子进行处理的重要性。我们承认,最高得分非常接近,实际上只需在100%的样本中更改一个或两个输出。因此,对其他数据集进行类似的工作可能会显示出这两个新颖性中哪个更重要。但是,与单轮方法[21]的距离更加一致(F1的差异为0.1463),我们可以确定多轮分类是重要的。05 微 F1 被使用:全局计算单个句子上的总 TP、FN 和 FP 6 该方法使用了https://github.com/HadoopIt/rnn-nlu 进行重新实现0Track: 第一届混合结构和非结构化知识问答国际研讨会(HQA'18) WWW 2018,2018年4月23日至27日,法国里昂108005 结论0在使用标准基准数据集进行的受控实验中,分析了关于交互上下文对于更好理解请求的重要性的初始研究问题,并取得了结果,表明交互上下文在多轮交互中非常关键。该工作侧重于 QA所需的第一步,即理解句子,这对于进行知识库询问和响应生成的后续步骤非常重要。分析仅针对意图进行。为了拥有无规则的上下文管理,还需要对实体进行类似的工作,以了解当前句子中(隐式或显式引用的)哪些实体需要考虑到当前上下文中。未来的工作可能会在实体上进行重点研究:既为了获得正确预处理的语料库,也为了在模型中包含它们在轮次之间的传播。我们将获得当前句子的上下文化表示,不仅涉及意图,还涉及实体。这样,将不再需要手动跟踪对话组件,代理将能够无缝理解多轮交互。0参考文献0[1] Abdalghani Abujabal, Mohamed Yahya, Mirek Riedewald, and Gerhard Weikum.2017. 针对知识图谱的问答自动模板生成. In Proceedings of the 26th internationalconference on world wide web . International World Wide Web ConferencesSteering Committee, Republic and Canton of Geneva, Switzerland, 1191–1200. [2]James F Allen, Donna K Byron, Myroslava Dzikovska, George Ferguson, LucianGalescu, and Amanda Stent. 2001. 朝着人机对话的会话式人机交互. AI magazine 22, 4(2001), 27. [3] Layla El Asri, Hannes Schulz, Shikhar Sharma, Jeremie Zumer, JustinHarris, Emery Fine, Rahul Mehrotra, and Kaheer Suleman. 2017. Frames:为目标导向的对话系统添加记忆的语料库. In Proceedings of the SIG- DIAL 2017Conference . Association for Computational Linguistics, Saarbrücken, Germany,207–219. [4] Jonathan Berant, Andrew Chou, Roy Frostig, and Percy Liang. 2013.从问题-答案对到Freebase的语义解析. In Proceedings of the 2013 Conference onEmpirical Methods in Natural Language Processing . 1533–1544. [5] AdityaBhargava, Asli Celikyilmaz, Dilek Hakkani-Tür, and Ruhi Sarikaya. 2013.简单的上下文意图预测和槽检测. In 2013 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP) . IEEE, 8337–8341. [6] Kurt Bollacker, ColinEvans, Praveen Paritosh, Tim Sturge, and Jamie Taylor. 2008. Freebase:一个协作创建的用于结构化人类知识的图形数据库. In Proceedings of the 2008 ACMSIGMOD international conference on Management of data . ACM, 1247–1250. [7]Antoine Bordes and Jason Weston. 2017. 学习端到端的目标导向对话. theInternational Conference on Learning Representations (ICLR) (2017). [8] ChristianBuck, Kenneth Heafield, and Bas van Ooyen. 2014. 来自CommonCrawl的N-gram计数和语言模型. In Proceedings of the Language Resources andEvaluation Conference (LREC) , Vol. 2. Citeseer, Reykjavik, Iceland, 4. [9] Po-ChunChen, Ta-Chung Chi, Shang-Yu Su, and Yun-Nung Chen. 2017.面向口语理解的动态时间感知注意力. The 2017 IEEE Automatic Speech Recognitionand Understanding Workshop (2017). [10] Yun-Nung Chen, Dilek Hakkani-Tür,Gokhan Tur, Jianfeng Gao, and Li Deng. 2016.具有知识传递的多轮口语理解的端到端记忆网络. Interspeech (2016), 3245–3249. [11]Kyunghyun Cho, Bart Van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, FethiBougares, Holger Schwenk, and Yoshua Bengio. 2014.使用RNN编码器-解码器学习短语表示用于统计机器翻译. (October 2014), 1724–1734.http://www.aclweb.org/anthology/D14-1179 [12] Jeffrey L Elman. 1990.在时间中寻找结构. Cognitive science 14, 2 (1990), 179–211. [13] Mihail Eric andChristopher D Manning. 2017. 面向任务导向对话的键值检索网络. In Proceedings ofthe 18th Annual SIGdial Meeting on Discourse and Dialogue . Association forComputational Linguistics, Saarbrücken, Germany, 37–49.0[14] Anthony Fader, Luke Zettlemoyer, and Oren Etzioni. 2014.开放问题回答基于策划和提取的知识库. In Proceedings of the 20th ACM SIGKDDinternational conference on Knowledge discovery and data mining . ACM,1156–1165. [15] Barbara J Grosz, Scott Weinstein, and Aravind K Joshi. 1995.Centering: A frame- work for modeling the local coherence of discourse.Computational linguistics 21, 2 (1995), 203–225. [16] Sanda M Harabagiu, Dan IMoldovan, Marius Pasca, Mihai Surdeanu, Rada Mihal- cea, Roxana Girju, Vasile Rus,V Finley Lacatusu, Paul Morarescu, and Razvan C Bunescu. 2001.使用LCC的问答服务器回答复杂、列表和上下文问题. In TREC . [17] Charles T Hemphill,John J Godfrey, and George R Doddington. 1990. ATIS口语系统试点语料库. In Speechand Natural Language: Proceedings of a Workshop Held at Hidden Valley,Pennsylvania, June 24-27, 1990 . [18] Sepp Hochreiter and Jürgen Schmidhuber.1997. 长短时记忆. Neural computation 9, 8 (1997), 1735–1780. [19] Brendan Jubaand Madhu Sudan. 2008. 通用语义交流ii: 目标导向通信的理论. In ElectronicColloquium on Computa- tional Complexity (ECCC) , Vol. 15. [20] John Lafferty,Andrew McCallum, and Fernando CN Pereira. 2001. 条件随机场:用于分割和标记序列数据的概率模型. (2001). [21] Bing Liu and Ian Lane. 2016.基于注意力的递归神经网络模型用于联合意图检测和槽填充. Interspeech (2016),685–689. [22] Denis Lukovnikov, Asja Fischer, Je
下载后可阅读完整内容,剩余1页未读,立即下载
![.zip](https://img-home.csdnimg.cn/images/20210720083646.png)
![.zip](https://img-home.csdnimg.cn/images/20210720083646.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)