没有合适的资源?快使用搜索试试~ 我知道了~
+v:mala2277获取更多论文一千个人眼中有一千个哈姆雷特傅廷臣1<$,赵学良2<$,陶重阳3,魏继荣1,芮艳1中国人民大学高陵学院人工智能学院2王轩北京大学3微软公司{lucas.futingchen,zhaoxlpku,chongyangtao}@gmail.com{jrwen,ruiyan}@ruc.edu.cn摘要基 于 知 识 的 对 话 ( Knowledge-groundedconversation,KGC)在构建一个有吸引力的、知识丰富的聊天机器人方面显示出巨大的潜力,而知识选择是其中的关键因素。然而,以往的知识选择方法只关注知识与对话语境之间的相关性,忽略了年龄、爱好、对话者的教育和生活经历对他或她对外部知识的个人偏好有重大影响。如果不考虑个性化问题,就很难选择适当的知识并生成与角色一致的响应。 在这项工作中,我们将个人记忆知识选择KGC解决个性化的问题。我们提出了一种变分方法来模拟一个人的个人记忆和他或她的知识选择之间的潜在关系实验结果表明,该方法在自动评价和人工评价方面均优于现有的KGC方法。1介绍开放域对话系统经常遭受安全响应(Li etal. ,2015; Zhang et al. ,2019)问题,因为他们只能在生成响应时引用上下文。为了缓解这一问题,提出了基于知识的对话(KGC),以引入外部事实和现实世界的常识作为先验知识(Zhou et al. ,2018a; Dinan et al. ,2019;Zhao et al. ,2020a),这样前两个作者的贡献相等。赵学良负责方法论和算法的设计。廷臣傅负责施行和试验。顺序由抛硬币决定。*通讯作者:芮岩(ruiyan@ruc.edu.cn)对话系统能够以所提供的知识为对话的基础,并因此生成信息丰富且吸引人的响应。由于外部知识补充了输入的背景并决定了要说什么,知识选择是KGC的关键因素。已经开发了许多方法来通过序列潜变量解决知 识选 择 问 题( Kim et al. ,2020; Meng等人,2020)、强化学习(Zhao et al. ,2020b),或期望最大化算法(Li et al. ,2020)。尽管在这项任务中取得了进展,但知识选择仍然是一个未解决的问题,因为在维基百科的Wiz ard中精度仍然远远不能令人满意(Dinanet al. , 2019 年 ) 和 KGC 的 其 他 基 准(Gopalakrishnan et al. ,2019年),这也阻碍了后续响应生成模型的优化。关键是,他们常常假设只要对话语境已知,黄金知识是可区分的,但这并不总是成立的,因为对话中存在一对多的关系,对话会话中过去的话语历史不足以决定对话的知识选择或未来的趋势。如图1所示,个性化是任务成功的关键,因为知识选择本质上是一个个人或主观的过程。人们在进行交际时,对对话语境的感知会唤起人们对相关生活经验、品味和价值观的过去记忆,我们称之为个人记忆。被唤醒的个人记忆片段进一步引导他们对不同知识的兴趣和偏好。基于此,我们提出了一个名为个性化KGC的新任务,将个性化引入到基于知识的对话中,以鼓励更人性化的知识选择。将个人记忆转化为知识选择是一项重要的任务。挑战之一是个人记忆的个人隐私-arXiv:2204.02624v1 [cs.CL] 2022年4+v:mala2277获取更多论文你认识贝克特吗知识•贝克特是爱尔兰小说家、剧作家、短篇小说家、戏剧导演、诗人和文学翻译家。•贝克特被授予1969年诺贝尔文学奖(a)·《等待戈多》是塞缪尔·贝克特的一部戏剧,两个角色迪迪和戈戈等待着名义上的戈多无内存中文(简体)什么,我知道一些(b)第(1)款+记忆我在戏剧社的第一个角色是《等待中的迪迪》关于Godot是的,他写了一部著名的戏剧,叫做《等待》。戈多 有一次,(三)在其中的作用。图1:(a)知识选择不能仅根据对话上下文确定。(b)在没有个人记忆的情况下,知识概率分布是平坦的,难以选择合适的知识。(c)随着个人记忆的增强,知识概率分布更加尖锐。理论是一个与用户特定体验相关的抽象概念,很难描述或建模。虽然它已经在开放域中讨论过(Li et al. ,2016; Zhang et al. ,2018),没有以前的研究揭示了KGC中的个性化问题,并且不存在同时具有外部事实和个人记忆的对话数据集。此外,没有标注的标签来指示一个人将基于他或她的个人记忆选择哪些知识也就是说,在没有金标签的情况下,个人记忆和知识选择之间的映射我们的实验表明,由于知识和个人记忆之间的依赖性,将个人记忆视为额外知识的直观为了解决上述问题,我们构建了一个具有个性化记忆库的KGC数据集为了揭示对话语境、个人记忆和知识之间的内在联系,我们提出了一种变分方法,并引入两个潜变量Zp和Zk,分别表示需要唤起的个人记忆片段和需要选择的知识为了模拟从Zp到Zk的映射,我们引入了一个逆映射作为对偶任务,并采用对偶学习来允许两个映射相互学习这背后的动机是直观的:reflections-如果从个人记忆到知识的映射是准确的,那么从所选择的知识候选中提取个人记忆实验结果表明,该方法在自动评价和人工评价中均优于同类方法,证明了引入个人记忆的重要性和双重学习机制的有效性。这项工作的贡献有三方面:(1) 本文探讨了KGC中知识选择任务的个性化问题,并构建了一个具有用户个性化知识的数据集,为今后的相关研究提供参考。我们是第一个探索将个人记忆引入KGC的可能性(2) 我们提出了一种新的变分方法,并引入两个潜在变量来模拟人物角色和知识之间的相互依赖关系。此外,我们采用双重学习的方法,在统一的框架下优化对话语境、个人记忆和知识之间(3) 我们进行了大量的实验,并验证了所提出的方法经验。自动和人工评估都证明了我们所提出的方法的有效性。2相关工作有大量的文献在知识为基础的对话领域。以知识图的形式(Zhou et al. ,2018a; Wu et al.,2019 ) ,文 件 (Ghazvininejad et al. , 2018;Zhouet al. ,2018 b; Zhao et al. ,2019)或视觉背景(Das et al. ,2017),它被认为是实现智能对话系统的关键方法。如今,KGC中的现有方法通常共享将任务分解成两个相关子问题的范例,即知识选择和话语生成(Kim等人,2005)。,2020)。在这项工作中,我们主要集中在知识选择任务。 为此,已经提出了大量的方法来通过记忆网络检索最相关的知识(Ghazvininejad et al. ,2018),序列潜变量(Kim et al. ,2020; Meng等人,2020)、强化学习(Zhao et al. ,2020 b)等。最近的工作给予关注的表达风格的知识(赵等。,2021年)。然而,据我们所知,他们只关注解码阶段,没有方法揭示知识选择的个性化问题。+v:mala2277获取更多论文|···M···|KPP{···}|P||我们的工作也与双重学习有关。 首先由He等人在神经机器翻译中提出。 (2016),双重学习是一种半监督学习方案,旨在利用大规模未标记数据。连同其近年来新出现的变体(Xia et al. ,2017,2018; Wang et al. 、,(| (, ,)蒸馏对偶, ,)2019年),双元学习已成功应用条件在神经机器翻译(Xia et al. ,2017; Heet al. ,2017)、图像-图像-翻译(Yi et al. 、KL-div2017; Lin et al. ,2018年),情绪分析(夏(| ,)等人,2017)、自动语音识别(Renet al. ,2019)、问题回答(Tang et al. ,2017年),和知识为基础的对话(孟等。、(|)双回路VAE2020年)。我们的工作也与双重学习有关。双重学习首先由He等人在神经机器翻译中提出。(2016),双重学习是一种半监督学习方案,旨在利用大规模未标记数据。在这项工作中,我们采用双重学习模型之间的相互依赖关系的3方法3.1问题公式化假设我们有一个KGC数据集D,每种情况都是(C,K,R)格式,图2:我们提出的方法的图形表示。它描述了Zp和Zk之间的依赖关系和相互作用。第一个样本来自后验分布的Zpq φ(Z p|C,R),然后计算从存储器到kn o<$qφ(Zk ) 的 前 向 映 射|C,R,Zp),从中我们采样Zk。这是一个很大的问题。标记为通过辅助分布重构所选择的存储器片段的概率,(Z_p=Z_p_C,R,Z_k)。通过最大化奖励,主要任务和辅助任务可以相互受益。辅助分布的增益被提取为q φ(Zp|C,R),因此,其中C=[u1,u2,..{K1,K2,· · ·,K| K|}是一组|K|知识候选人。而R=[r1,r2,,rlR]是这个对话中对应于a的响应具有唯一用户ID的特定用户。与原始KGC任务不同,我们有一个内存库。 对于每一个与回答相对应的对话者,他或她的一组个人记忆=P1,P2,,,P| P|组成可以从存储器储存库中检索定制的话语历史。 我们的目标是学习一个概率模型p(RC,、),可以根据个人记忆和知识生成个性化和信息化的响应。3.2模型概述图2给出了我们的方法的图形模型。如图所示,我们所提出的方法的核心是五个概率模型来计算Zp,Zk的先验分布和后验分布以及Zp的辅助分布。在训练过程中,我们设计了一个无监督的学习方案,在该方案中,我们通过对偶学习来优化两个潜变量Zp和Zk的分布。具体来说,我们后验分布和辅助分布形成一个闭环。此外,通过KL-散度,先验分布被强制接近后验分布。在推理阶段,首先计算Zp的先验分布,从中抽取并激活个人记忆片段。然后,利用唤醒的记忆片段确定先验知识分布pθ(ZkC).最后,从Zk采样的知识连同存储器片段一起被发送到生成器中以synthesize响应。请注意,黄金响应仅涉及训练阶段。π、φ和φ都是可学习的参数。3.3神经参数化为了使潜在变量具有可解释性,我们将Zp和Zk的潜在空间设置为可供选择的记忆片段或知识候选者的数量,并且每个采样对应于单个记忆片段或知识候选者。此外,受人类认知过程的驱动,被唤醒的个人记忆片段暗示了个体+v:mala2277获取更多论文|·我我|我·−Yθ选择不同的知识。有鉴于此,(Zp,Zk)的先验分布被分解为:p(Z p,Z k)= p(Z k|Z p)p(Z p)(1)为了计算它们的概率分布,我们采用BERT(Devlin et al. ,2018年)作为我们的方法的骨干,以获得对话上下文,响应,候选知识句子或个人记忆片段的密集表示。以先验分布pθ(ZkC,Zp)的计算为例。我们首先将上下文C、由采样Zp表示的存储器片段P和第i个候选知识Ki连接在一起作为长序列。一个特殊的[CLS]标记被前置在序列的开始,[SEP]被插入以分离不同的话语:I=u1,u2,···ulC,p1,p2,···,plP,k1,k2,···klKi,(2)其中lC,lP和lKi是图1中的令牌的数量。其中f()是一个多层感知器。Zk和Zp的先验分布和后验分布以类似的方式计算。 唯一的区别在于输入序列的构成:对于Zp的先验分布,是对话上下文和候选个人记忆方面的级联:I=u1,u2,···u1C,p1,p2,···,p1P (6)为了计算后验分布,我们将响应标记插入到对话上下文的后面,因为响应通常包含指示所选知识和记忆的线索。也就是说,为了计算qφ(Zp C,R),Zp的后验,输入是:I=u1,u2,···ulC,r1,r2,···,rlR,p1,p2,···,plP对于q φ(Zk|C,R,Z p):上下文、记忆方面和知识候选人。然后嵌入层将I=u1,u2,···u1C,r1,r2,···,r1R,p1,p2,···,plP,k1,k2,···,klK(八)转换为输入表示,它是相应的标记嵌入和位置嵌入的总和。此后,BERT编码器对输入表示执行多头关注以获得密集表示。BERT编码器中有n个相同的层,对于每一层,多头注意力可以公式化为Hl= FFN(MultiHead(Ql−1,Kl−1,Vl−1)),(3)其中FFN()是一个前馈网络,我们 使用Ql−1,Kl−1和Vl−1分别表示第11层之后的查询矩阵,键矩阵和值矩阵。 对于自我关注,我们有Ql−1=Kl−1=Vl−1=Hl−1,(4)其中H1表示第1层的隐藏状态。特别地,H0是输入嵌入,Hn是通常,我们的方法的生成器g可以指定为任何大规模的预训练语言模型。 这里我们将生成 器 定 义 为 GPT-2 ( Radford et al. ,2019)。以往的方法往往只根据对话语境和所选择的知识来合成应答,而没有考虑对话者的人物角色,这可能会导致人物角色的不一致与此不同的是,我们将采样的个人记忆片段和采样的知识候选者与对话上下文一起输入到GPT-2中。直觉性的个人记忆片段暗示了为什么知识会被关注,以及对话者的角色与知识之间的潜在关联,这使得生成器能够生成与角色一致的知识性响应:g(R)= g(R|C,Z p,Z k)BERT的最终输出我们使用对应于Hn中特殊[CLS]标记的位置的向量作为表示-LR=i=1g(r i|C,Z p,Z k,r
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 前端协作项目:发布猜图游戏功能与待修复事项
- Spring框架REST服务开发实践指南
- ALU课设实现基础与高级运算功能
- 深入了解STK:C++音频信号处理综合工具套件
- 华中科技大学电信学院软件无线电实验资料汇总
- CGSN数据解析与集成验证工具集:Python和Shell脚本
- Java实现的远程视频会议系统开发教程
- Change-OEM: 用Java修改Windows OEM信息与Logo
- cmnd:文本到远程API的桥接平台开发
- 解决BIOS刷写错误28:PRR.exe的应用与效果
- 深度学习对抗攻击库:adversarial_robustness_toolbox 1.10.0
- Win7系统CP2102驱动下载与安装指南
- 深入理解Java中的函数式编程技巧
- GY-906 MLX90614ESF传感器模块温度采集应用资料
- Adversarial Robustness Toolbox 1.15.1 工具包安装教程
- GNU Radio的供应商中立SDR开发包:gr-sdr介绍
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功