没有合适的资源?快使用搜索试试~ 我知道了~
可控自然语言生成:基于对比前缀的轻量级框架引导自然语言生成
+v:mala2277获取更多论文基于对比前缀的可控自然语言生成钱晶1,李东2,沈业龙2,魏福如2,陈伟柱21加州大学圣巴巴拉分校2微软公司jing_qian@cs.ucsb.edu{lidong1,yeshe,fuwei,wzchen}@microsoft.com摘要为了指导大型预训练语言模型(LM)的生成,以前的工作主要集中在直接微调语言模型或利用属性映射。在这项工作中,我们提出了一种新的轻量级框架可控GPT2(Radford等人。,2019)生成,其利用一组称为前缀的小的属性特定向量(Li和Liang,2021)来引导自然语言生成。与Li和Liang(2021)中每个前缀独立训练不同,我们考虑了前缀之间的关系,并同时训练多个前缀,如图1所示。我们提出了一种新的监督方法和一种无监督方法来训练单方面控制的前缀,而这两种方法的组合可以实现多方面控制。单方面和多方面控制的实验结果表明,我们的方法可以引导生成所需的属性,同时保持较高的语言质量。1介绍可控自然语言生成的目标是引导生成朝着文本相关方面的期望属性进行例如,方面可以是主题或情感,并且情感可以具有两个属性:积极和消极。以前的工作主要集中在直接微调现有的模型(Keskar et al. ,2019; Hu et al. ,2017;Ficler和Goldberg,2017)或使用一个引导生成的标记(Dathathri et al. ,2020; Krause etal. , 2020; Holtzman 等 人 , 2018 ) 。 CTRL(Keskar et al. ,2019)以训练大的条件LM为代价实现可重用性。GeDi(Krause et al. ,2020年)也训练con-sweetLM,但使用它们作为鉴别器来指导生成,引入了额外的3.45亿参数。此外,GeDi侧重于单方面控制,忽略了多方面控制的需要图1:前缀调整(Li和Liang,2021)(上)和我们的情绪控制框架(下)的比较实线箭头表示训练过程,而虚线箭头表示推理(生成)过程。在我们提出的框架中,训练可以是监督的,半监督的或无监督的。PPLM(Dathathri et al. ,2020)通过迭代地更新LM的隐藏激活来然而,这种解码策略是极其计算密集的,导致生成速度慢(Gehman etal. ,2020)。前缀调整(Li和Liang,2021)提出优化前缀,这是一个小的连续任务特定向量,作为微调NLG任务(如表到文本生成或摘要)的轻量级替代方案受Li和Liang(2021)的启发,我们提出使用前缀(一组小的连续属性特定向量)来引导NLG。与使用属性模型或生成式模型 ( Datathri et al. , 2020; Krauseet al. ,2020),使用学习的前缀来实现可控制性具有以下益处。首先,它引入了较少的附加参数(在我们的实验中约为GPT 2参数其次,使用前缀保持推理速度与原始GPT2模型相当。从一般意义上说,前缀调整(李和梁,2021)可以被认为是控制属-arXiv:2202.13257v1 [cs.CL] 2022年2月+v:mala2277获取更多论文语言模型。前缀调优将每个前缀视为一个独立的控制任务,因此分别训练每个前缀(图1中的顶部)。然而,NLG的可控性的一个方面涉及多个属性,这些属性可能彼此有关系。例如,情感方面通常有两个属性:积极和消极,它们彼此对立。我们认为这种对立关系有助于提高前缀的可控性因此,我们在我们的框架中提出了一种新的监督方法和一种新的非监督方法,该方法考虑了前缀之间的关系,并以新的训练目标同时训练多个前缀,如图1所示。单方面控制任务(情感控制,解毒,和主题控制)的实验结果表明,我们提出的方法可以引导生成的目标属性,同时保持高的语言质量,即使只有几十个标记的例子。除了单方面的控制,多方面的控制,可以通过结合所提出的监督方法和无监督的方法在我们的框架工作。实验结果表明,用我们的方法训练的前缀我们的主要贡献如下:• 我们提出了一个新的框架,利用前缀与冻结LM作为一个轻量级的替代可控GPT2代。• 本文提出了一种有监督和无监督的前缀训练方法• 该工作为单方面控制和多方面控制提供了统一的视角。实验结果表明,我们的方法可以有效地指导单方面控制和多方面控制的生成2相关工作Ficler和Goldberg(2017)使用条件RNN(递归神经网络)LM控制生成文本的风格方面。Holtzmanet al.(2018)组成了一个判别器委员会,以指导RNN生成器以期望的语言质量生成。Hu等人( 2017 ) 旨 在 通 过 结 合 变 分 自 动 编 码 器(VAE)和属性判别器来控制生成的文本最近,随着Transformer和大型预训练语言模型(如GPT2)的出现,大量工作集中在控制这些基于Transformer的模型的生成上。Keskar等人(2019)从头开始训练一个16.3亿参数的条件Transformer LM,其中包含55个属性控制代码来指导生成。然而,这种方法是昂贵的,并且由于控制代码是固定的而缺乏灵活性。Dathathri等人 (2020)通过开发一种即插即用模型来解决这些限制,该模型利用一个属性来扰乱LM的隐藏激活。然而,在令牌级别更新梯度会导致缓慢的推理。克劳斯等人没有更新隐藏的激活, (2020); Yang和Klein(2021); Lin和Riedl(2021)引入了生成判别器,以在推理过程中动态地重新加权下一个令牌分布,从而提高推理速度。我们的工作主要是与余等人。 (2021);Liand Liang(2021). Yu等人 (2021)使用预训练的LM,随后是属性对齐函数来编码目标属性的令牌,并且所得到的隐藏状态用于控制生成。与他们的工作不同,我们不把目标属性的标记作为输入。相反,我们直接训练一组参数,作为GPT2的前置隐藏状态,以控制生成。避免使用属性标记可以避免仅用一个词难以 描 述 所 需 属 性 时 的 问 题 此 外 , Yu et al.(2021)侧重于属性分解,这不是我们工作的重点,因此我们的培训方法不同。前缀调整(Li和Liang,2021)在一般意义上可以被视为控制LM的生成,其中LM被控制以描述特定的NLG任务,而在这项工作中,LM被控制以在生成中携带此外,我们提出的前缀训练方法与Li和Liang(2021)不同,如第1节所述。3方法我们的方法使用前缀来指导GPT2生成,其中前缀是前缀到GPT2的激活的连续属性特异性向量。前缀是表示为Hθ的自由参数。与李和梁(2021)不同,+v:mala2277获取更多论文××××L||LΣ||logp(x|y)=||||∈\{}每个前缀独立训练,考虑属性间的关系,同时训练多个前缀,因此H θ为N维MD,其中N是前缀的数量。在单方面控制中,N等于相关方面的属性数。M是前缀的长度。D=2LE 是 GPT 2 中 激 活 的 维 度 , 其 中 L 是Transformer层的数量,E是隐藏大小,2表示一 个 键 向 量 和 一 个 值 向 量 。 继 Li 和 Liang(2021)之后,我们重新参数化Hθ[i,j,:]=WiHθJ[i,j,:]由一个大矩阵(Wi)组成的较小参数(HθJ)后训练结束后,只需要保存Hθ用于生成,而W和HθJ可以被丢弃。由于GPT 2参数在训练期间保持冻结-他们也不需要被拯救。图2示出了在经训练的前缀的控制下的生成过程的示例前缀可以以监督、半监督或非监督的方式训练。由于半监督方法是监督和非监督方法的结合,因此我们在本节中介绍了监督和为了清楚起见,我们在单方面控制设置下介绍这些方法3.1监督方法假设关注的方面具有属性集Y,每个训练样本是一对(x,y),其中x是输入文本,y∈Y是属性标签图2:GPT2生成过程随时间展开的图示,由积极情绪前缀H1=Hθ[1,:,:]控制。“The book” “isgood”logp(x y)是logpθ,γ(xt x
下载后可阅读完整内容,剩余1页未读,立即下载
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://profile-avatar.csdnimg.cn/default.jpg!1)
cpongm
- 粉丝: 4
- 资源: 2万+
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助
![](https://csdnimg.cn/release/wenkucmsfe/public/img/voice.245cc511.png)
会员权益专享
最新资源
- 京瓷TASKalfa系列维修手册:安全与操作指南
- 小波变换在视频压缩中的应用
- Microsoft OfficeXP详解:WordXP、ExcelXP和PowerPointXP
- 雀巢在线媒介投放策划:门户网站与广告效果分析
- 用友NC-V56供应链功能升级详解(84页)
- 计算机病毒与防御策略探索
- 企业网NAT技术实践:2022年部署互联网出口策略
- 软件测试面试必备:概念、原则与常见问题解析
- 2022年Windows IIS服务器内外网配置详解与Serv-U FTP服务器安装
- 中国联通:企业级ICT转型与创新实践
- C#图形图像编程深入解析:GDI+与多媒体应用
- Xilinx AXI Interconnect v2.1用户指南
- DIY编程电缆全攻略:接口类型与自制指南
- 电脑维护与硬盘数据恢复指南
- 计算机网络技术专业剖析:人才培养与改革
- 量化多因子指数增强策略:微观视角的实证分析
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035711.png)
![](https://img-home.csdnimg.cn/images/20220527035111.png)
安全验证
文档复制为VIP权益,开通VIP直接复制
![](https://csdnimg.cn/release/wenkucmsfe/public/img/green-success.6a4acb44.png)