没有合适的资源?快使用搜索试试~ 我知道了~
+v:mala2277获取更多论文一个使用大型语言模型进行任意文本样式转换的方法Emily Reif 1页 达芙妮伊波利托酒店1,2 * 袁安1 克里斯·卡利森-伯奇(Chris Callison-Burch)Jason Wei11Google Research2宾夕法尼亚大学{ereif,annyuan,andycoenen,jasonwei}@google.com{daphnei,ccb}@seas.upenn.edu摘要在本文中,我们利用大型语言模型(LM)进行零镜头文本风格转换。我们提出了一种激励方法,我们称之为增强零激发学习,它将风格迁移框架为句子重写任务,只需要自然语言的指导,而不需要模型微调或目标风格的示例。增强的零触发学习很简单,不仅在标准的风格迁移任务(如情感)上,而且在自然语言转换(如“使这个旋律成为旋律”或“插入隐喻”)上都表现出了1介绍语篇风格转换是指在保持语篇整体语义和结构的前提下,重新编写语篇,使其包含其他或替代的风格元素。虽然由于深度学习的成功,风格迁移已经引起了越来越多的兴趣,但这些方法通常需要大量的标记训练示例,无论是作为par-textdata ( Zhu et al. , 2010 年 ; Rao 和Tehrult,2018年)或单一风格的非平行文本数据。 (Liet al. ,2018; Jin et al. ,2019; Liu etal. ,2020; Kr-ishna et al. ,2020)。 即使是解决无标签风格迁移的挑战性问题的前沿方法也是有限的,因为它们需要至少几个范例句子来指示给定的目标风格(Xu et al. ,2020; Rileyet al. ,2021年)。因此,最近的调查论文已经确定了对既减少训练数据需求又扩大支持的风格范围的新方法的需求(Jin et al. ,2020; Hu等人,2020)。在这项工作中,我们提出了增强零射击学习,一种提示方法,允许大型语言模型执行文本风格转换为任意风格,而无需目标风格中的任何范例我们的方法建立在先前的工作基础上,平等贡献(一)(b)第(1)款(c)第(1)款图1:用于风格转换的零次、少次和增强的零次提示。粗体文本是零激发提示,纯文本是附加的启动序列。本文中使用的完整提示如表7所示。我们鼓励读者在https上检查我们模型的输出//bit.ly/3fLDuci网站。足够大的LM,如GPT-3,可以执行从分类到翻译的各种任务,只需选择一个聪明的提示,以 预 先 添 加 到 要 求 模 型 继 续 的 输 入 文 本(Brown et al. ,2020;Branwen,2020)。使用一个提示,提供了几个示范的句子被因此,我们能够执行任意样式的样式转换,例如增强的零次学习简单,便于将风格迁移应用到更广泛的领域。arXiv:2109.03910v4 [cs.CL] 2022年3月零拍学习提示这是一条很丑的裙子。这里是一个重写的文本,这是更积极的:{少拍学习提示下面是一些文字:{我真的很伤心的损失}。这是一个文本的重写,这是更积极的:{我能够接受并通过损失继续前进。下面是一些文字:{蛋酒是无味的}。下面是对文本的重写,这是更积极的:{The蛋奶酒有一种很棒的节日味道。…这是一条很丑的裙子。这里是一个重写的文本,这是更积极的:{增强的零射击学习提示(我们的)下面是一些文字:{当医生让琳达吃药时,他微笑着给了她一个棒棒糖}。这是一个重写的文本,这是更可怕的:{当医生告诉琳达吃药,有一个恶意的光芒在她的眼睛,琳达不喜欢在所有}下面是一些文字:{他们大声地问,在火车的声音}。这是一个文本的重写,这是更激烈的:{他们咄咄逼人地大喊大叫,在火车的叮当声}…这是一条很丑的裙子。这里是一个重写的文本,这是更积极的:{更夸张的是,包括一个比喻,包括“气球”这个词+v:mala2277获取更多论文§§比现有的工作风格。我们的贡献如下。在街道中央,站着一位老人,穿着一件饱经风霜的棕色外套。1. 我们提出了一种使用大型LM的风格迁移方法,该方法是无标签的,无训练的,并且是直观可控的。2. 通过人工评估,我们发现我们的方法在标准和非标准风格转换任务上都取得了很好的性能。我们还比较了我们的情感转移方法与使用自动评估的先前方法3. 我们探讨了现实世界中所需的风格转移生成的用户的文本编辑UI,更具描述性包括一个比喻包括“公园“一词包括“气球“这个词男人在那里,在街道的中央,站着一个老人,他的脸像饱经风霜的树皮,多节的树在中央公园的中央,站着一位老人,穿着一件饱经风霜的棕色外套。在街道中央,站着一位老人,他的外套的带子上系着几个五颜六色的气球。实现我们的方法。更滑稽的是,在街道中央,站着一个老人,穿着一件破旧的棕色外套,对他来说太大了。2增强的零拍提示虽然大型LM只针对连续性训练,更有旋律感在路中间,站着一个头发花白的老人,他凹陷的眼睛里的生命之光消失了。最近的工作表明,它们可以通过将任务表示为提示来执行各种NLP任务,该提示鼓励模型输出所需的答案作为延续(Puri和Catan-zaro,2019; Weller et al. ,2020; Brown et al. ,2020;Schick and Schütze,2021,especially; see Liuet al. (2021年a)进行调查)。最简单的方法是零触发提示,它直接使用自然语言来要求大型LM执行一项任务,如图1a所示。然而,零触发提示可能倾向于失败模式,例如不返回格式良好或逻辑输出(参见6)。如图1b所示,少镜头提示已被证明可以实现更高的性能,但需要exem- plars来执行我们希望模型执行的确切任务。如果预先知道所需的样式转换,则可以很容易地获得这种少量的示例,但这最终将样式转换限制为一组预先指定的样式任务。为了消除每个风格迁移任务对这些标记样本的需要,我们提出了增强零次学习,一种使用单组样本执行多任务风格迁移的方法我们不是用特定于我们希望执行的确切风格转换任务的示例来提示模型,而是用各种句子重写操作的示例来提示模型,如图1c所示。这种直觉受到Reynolds和McDonell(2021)表1:来自非标准风格的增强零激发学习的示例风格转移输出。转换成相同的格式。通过这种方式,增强的零激发公式支持任意句子重写任务,而不需要编写任何特定于任务的范例。因此,它适用于广泛的风格,包括修改文本,使其“更戏剧化”,“插入隐喻”或“包括单词气球”。“3实验装置风格转换任务。我 们 考虑六个我们认为非标准的样式转换任务,如表1.一、选择这些样式是为了代表采用我们方法的AI辅助文本编辑器的用户所做的最频繁的样式调整(在5中进一步讨论)。作为源句子,我们使用从Reddit写作验证集随机抽取的50个句子(Fan et al. ,2018),不包括那些已经明显表现出其中一种风格或不合语法/不连贯的。我们对这些样式使用人工评估,因为并非所有样式都有现成的分类器。我们还评估了我们的方法在两个标准的风格转移任务:情感和正式。我们使用Yelp极性数据集(Zhang et al. ,2015年)用于情感和Grammarly1这些数据集使我们能够在这些任务中使用的先前监督方法的背景下评估增强零射击学习的性能一个特定模板的输出我们保留了格式的样本常数,并插入de-1主持人Luo et al. (2019年)。+v:mala2277获取更多论文§模型增强的零触发学习需要一个大型的语言模型。我们主要使用LaMDA,一个从左到右的仅解码器的Transformer语言模型(Vaswaniet al. ,2017年)与非嵌入式风格实力1007550250137 B的参数计数(Thoppilan et al. ,2022)。各种款式更更包括包括包括更预训练的LaMDA模型,我们称之为LLM,是在包含1.95 B公共Web文档的语料库上训练的,包括论坛和对话数据以及维基百科。数据 集 被 标 记 为 2.49T BPE 标 记 , 具 有SentencePiece词汇表100755025(平均值)喜剧情节剧词“公园”这个词“气球”隐喻描写大小为32K(Kudo和Richardson,2018)。我们也0各种款式更更包括包括包括更使用LLM对话框,最终的LaMDA模型,(平均值)喜剧情节剧词“公园”这个词“气球”隐喻描写在一个精心策划的,高质量的数据子集上进行了微调,这些数据被确定为会话格式。解码是在top-k=40的情况下完成的。为了证明增强零触发学习的成功并不局限于这两个大型LM,我们还使用GPT-3进行了实验(表8)。对于GPT-3,使用p =0.6用细胞核取样进行解码(Holtzman et al. ,2019)。用于LLM和GPT-3的提示符如图1所示。对于LLM-Dialog,提示被代之以制定为请求重写的一个代理和执行重写的另一个代理之间的对话。有关完整的非缩写提示,请参见附录中的表74结果4.1非标准样式对于我们的六种非标准风格,我们请六位专业评分员评估输入句子、目标风格、输出句子>元组。这些评分员英语流利,居住在印度,全职工作标签和评估数据。为了减少评估者之间的差异并确保我们的说明清晰,我们进行了一次初始校准会议,他们对一小部分数据进行了测试评估(大约10个数据点,然后从结果中删除),并向我们提出了任何澄清问题。对于每种风格,我们比较了我们方法的输出加上50个句子的三个基线。每个元组由三名评分员(总共3,600次评分)在以下三个轴上评分,这三个轴是文本风格转换的标准(Mir et al. ,2019年):(1)转换强度(输出实际上与目标风格匹配的量),(2)语义保持(除了风格之外,输出 文 本 的 潜 在 含 义 是 否 与 输 入 的 含 义 匹配),以及(3)流畅性(文本是否连贯并且可以由熟练的英语说话者书写继坂口和范杜梅之后图2:人类对六种非典型风格的风格迁移评估。我们的方法被评为人类书写的基本事实。误差条显示平均值的标准误差。流畅性评价见附录中的图4(2018年),转移强度和语义保留的评分范围为1评估UI的屏幕截图如附录中的图5所示。请注意,语义保存的指导方针在先前的文献中没有标准化(Briakou et al. ,2021);虽然一些评估严格要求输出不能包含比输入更多的信息,但我们要求注释器不要惩罚指定转换所必需的含义转换我们使用对话LLM,并将其与其他三种方法进行比较:(1)零射击(基线),(2)释义(我们的正常增强零射击提示,但目标风格为(3)人类(作者编写的地面真理转换)。图2显示了这些结果。我们发现,对于所有三个评估,我们方法的输出几乎与人类编写的地面实况一样高零激发基线在所有类别中表现最差:25.4%的时间,它根本没有返回有效的响应(见6),而增强零激发的这一比例为0.6%。意译基线在流畅性和语义相似性方面的强劲表现表明,大型LM能够生成高质量的文本,这些文本仍然忠于输入句子总的来说,输入句子的平均长度为66个字符,而增强的零触发输出的平均长度为107个字符。对于上下文,人类的释义输出是82个字符。对于任务的子集,也可以进行一些自动评估我们发现,语义相似度释义八月零零人类+v:mala2277获取更多论文85%的时间里都是目标词对于风格实力1007550250146%为人类基线)。4.2标准样式为了更好地将我们的方法的性能与先前的方法结合起来,我们还为两个标准风格的转移任务生成了输出:情感和形式。图3显示了对我们的输出的人工评估(与前面相同的设置),1007550250所有类型(平均值)所有类型(平均值)更正式更正式更加非正式更加非正式更积极更积极更负更负来自两种流行的现有风格转移方法的输出,Unsup MT(Prabhumoye et al. ,2018)和DualRL(Luo et al. ,2019)。我们的方法的输出与人类生成的响应和两种先前的方法相比都被评为不合格,使用与非标准风格相同的评级设置,具有六个输出和跨越50个句子的四种风格的基线,由三个评级者独立评级,总计3,000个总评级。此外,根据Li et al. (2018)和Sud-hakar等人(2019),我们对情感风格转移进行自动评估,因为这些风格有分类器可用。我们注意到,尽管自动评估可能与人类评级不同,但它们仍然可以是一个很好的代理,因为由于时间和资源限制,我们无法对每种先前的方法进行人 工 评 估 。 我 们 使 用 来 自 HuggingFaceTransformers(Wolf et al. ,2020),(2)与Luo et al. (2019)通过BLEU评分,和(3)通过困惑的流畅性,如通过GPT-2(117 M)测量的。表2显示了这些自动评估,有四个主要要点。首先,增强的零炮提示与基线相比具有高精度和低然而,BLEU分数很低,我们认为这是因为它倾向于向生成的句子添加额外的信息(参见附录B以获得更深入的分析)。其次,我们将增强零激发学习应用于GPT-3 175 B;这些结果表明增强零激发学习推广到另一种大型语言模型。第三,我们改变GPT-3模型的模型尺寸第四,对于LLM和LLM对话框,我们发现增强的零次学习大大优于普通的零次学习,几乎达到了五次学习的精度图3:人类对情感和形式的评价转移我们的方法被评为人类书面的地面真理以及先前的方法。误差条显示平均值的标准误差。不好MT是Prabhumoye et al. (2018); Dual RL是Luo etal. (2019年)。5任意风格增强零触发学习的一个很有前途的应用是一个AI驱动的写作助手,它可以让作者以作者定义和控制的任意方式转换他们的文本作为一个定性的案例研究,以探索可能会要求什么样的任意重写风格,我们构建了一个AI辅助的故事写作编辑器,具有我们的编辑器有一个自由格式的文本框,用户可以指定他们希望如何重写他们的故事(见附录中的图6我们邀请了来自创意写作小组的30人使用我们的UI写一个100-300字的故事,总共收集了333个重写请求。表3显示了其中的一个子集,这些6局限性和失效模式本节详细介绍了我们的方法的几个定性限制。无法解析的答案在使用大型LM进行其他NLP任务时经常出现的一个问题是,它们的输出无法自动解析为可用的答案。例如,当给出一个像“这里有一些文本:这是一件丑陋的衣服。这是一个重写的文本,这是更积极的”LLM对话框可能会返回类似“听起来你是一个伟大的作家!”LLM也存在类似的错误模式,它可能会输出类似于“Here are more writing tips andtricks”的内容。其他语义相似度释义零不支持。Mt双RL八月零人类+v:mala2277获取更多论文§S被忽视方法加BLEU PPL对一些风格的风格强度评价很高,包括交叉比对(Shen et al. (2017年) 73.4 17.6 812Backtranss(Prabhumoye et al. (2018年)90.5 5.1 424多解码器(Fu et al. 2018年)50.327.7 1,703仅删除(Li et al. (2018年)81.428.6606删除-检索(Li et al. 2018年)86.231.1948未配对RL(Xu et al. (2018年)52.237.2 2,750Dual RL(Luo et al. ,2019年)85.955.1982Transformer型变压器(Dai等人,2019)82.155.2935I仅参考方法这意味着我们的方法的代一般倾向于这些风格。未来工作的一个方向是看看我们的方法(以及一般的大型LM)本质上更有可能产生什么样的文本样式和比训练方法可靠性低对于具有可用训练数据的风格迁移任务,LLM:零射击69.728.6397五杆83.219.8240八月零射击79.616.1173LLM-对话框:zero-shot五杆59.194.317.613.6138126八月零射击90.610.479表2:使用自动评估在Yelp情感风格转移数据集上比较增强的零触发提示与监督风格转移方法Acc:准确度; PPL:困惑度。仅用于推断的表显示了我们的方法适用于3种不同大小的GPT-3,以及我们自己的LLM。看起来像训练数据的文本。这可以在我们的方法比训练方法获得的BLEU分数更低中观察到,尽管传输准确性相当(B节)。因此,增强的零激发学习在风格转移文本的属性中提供比看到特定于任务的训练数据的方法更少的细粒度控制不稳定性大型LM本身也有许多困难、进入障碍和潜在的安全问题,Bender等人(2021年)讨论过,也少一点焦虑·关于采矿·写得更好·少一点恶魔·更荒谬·更冒险·更狄更斯式·更情绪化·更神奇·更戏剧化·更哲学化·更革命化·更令人惊讶·更悬疑·更技术化·更异想天开·更温暖·更符合语法与故事的其余部分·更有意义表3:以“重写此...”形式提出的请求”有关完整的唯一请求集,请参见附录中的表5有时响应包含正确的信息,但是它不能被自动解析(例如,“一个好的改写可能是说这件衣服很漂亮。”事后看来,这些输出很有意义:大型LM的大多数训练数据都不是格式良好的输入和输出对(Reynolds和McDonell,2021)。关于我们如何处理这些问题,请参见A幻觉大的LM被称为幻觉文本内容;我们看到这种情况经常发生的风格转移。虽然这在某些情况下是一个优势,比如创意写作,但对于像摘要这样的应用程序来说是不可取的。内在风格趋势我们还注意到,即使是我们的此样式转换方法有效。然而,我们也认为这种方法可以成为探索和揭示这些模型本身的安全性和边界的有用工具:如果我们试图迫使大型LM使文本“更具种族主义”,“更具性别歧视”或“更具煽动性”,会发生什么重要的是要不断将这些模型推向它们的边界,以查看它们在哪里失败以及在哪里出现问题,并且显示更广泛模型功能的特定用例7结论我们引入了增强的零射击学习,我们发现考虑到它的简单性,它显示出惊人的性能。这种提示范例通过将可能的样式范围扩展到当前有限的样式集(注释数据存在于其中)之外,从而在文本样式传输中移动了指针更广泛地说,我们也希望用非特定任务的例子来提示大型LM的策略可以激发其他NLP任务的新的仅推理方法。引用艾 米 丽 ·M Bender , Timnit Gebru , AngelinaMcMillan- Major , and Shmargaret Shmittern.2021. 关于随机鹦鹉的危险:语言模型可以吗?GPT-3 ADA,8月零射击GPT-3居里,八月零射击31.553.039.048.3283207对这些数据进行训练或微调的方法是GPT-3达芬奇,8月零射击74.143.8231在生产上会更加可靠+v:mala2277获取更多论文太大? 在2021年ACM公平、问责制和透明度会议记录中,FAccT '21,第610-623页,美国纽约州纽约市。计算机协会.格温·布兰文2020. GPT-3创意小说。放大图片作者 : Eleftheria Briakou , Sweta Agrawal , KeZhang,Joel R.特鲁特和马琳·卡普阿特 2021. 风格迁移的人类评价研究综述。CoRR,abs/2106.04747。汤 姆 湾 Brown , Benjamin Mann , Nick Ryder ,MelanieSubbiah , JaredKaplan , PrafullaDhariwal,Arvind Neelakantan,Pranav Shyam,GirishSastry , AmandaAskell , SandhiniAgarwal,ArielHerbert-Voss,GretchenKrueger,Tom Henighan,Rewon Child,AdityaRamesh , Daniel M. Ziegler , Jeffrey Wu ,Clemens Winter , Christopher Hesse , MarkChen , Eric Sigler , Mateusz Litwin , ScottGray,Benjamin Chess,Jack Clark,ChristopherBerner,Sam Mc- Candlish,Alec Radford,IlyaSutskever,and Dario Amodei. 2020年。语言模型是少数的学习者。CoRR,abs/2005.14165。戴宁,梁建泽,邱希鹏,黄宣静。2019. 风格转换器Transformer:不成对的文本风格转换,无需分离潜在的表示。计算语言学协会第57届年会论文集,第5997-6007页,意大利佛罗伦萨。计算语言学协会。安吉拉·范,迈克·刘易斯和扬·多芬。2018年神经故事生成。第56届计算语言学协会年会论文集(第1卷:长文),第889-898页,澳大利亚墨尔本。计算语言学协会。傅振新,谭晓叶,彭南云,赵东岩2018. 语篇中的风格转换:探索与评价.在AAAI人工智能。Ari Holtzman,Jan Buys,Li Du,Maxwell Forbes和Yejin Choi。2019年。神经文本退化的奇怪案例在国际学术代表上。胡志强,Roy Ka-Wei Lee和Charu C.阿加-沃尔。2020. 文本风格迁移:综述与实验评价. CoRR,abs/2010.12742。DiJin , ZhijingJin , ZhitingHu , OlgaVechtomova,and Rada Mihalcea.2020. 深度学习用 于 文 本 风 格 迁 移 : 一 项 调 查 。 CoRR ,abs/2011.00416。Zhijing Jin , Di Jin , Jonas Mueller , NicholasMatthews,and Enrico Santus. 2019. IMAT:通过迭代匹配和翻译的无监督文本属性传输。在2019年自然语言处理经验方法会议和第九届自然语言处理国际联合会议(EMNLP-IJCNLP)的会议中,第3097-3109页,中国香港。计算语言学协会。KalpeshKrishna , John Wieting , and Mohit Iyyer.2020年。将无监督的风格转换重新定义为代短语生成。在2020年自然语言处理经验方法会议(EMNLP)中,第737计算语言学协会。工藤拓和约翰·理查森。2018年Sentencepiece:一个简单的和语言无关的子词分词器和去分词器 , 用 于 神 经 文 本 处 理 。 CoRR , 绝 对 值/1808.06226。Juncen Li , Robin Jia , He He , and Percy Liang.2018. 删除,检索,生成:一个简单的方法来感受和风格转移。在计算语言学协会北美分会2018年会议论文集,第1865-1874页计算语言学协会。Dayiheng Liu,Jie Fu,Yidan Zhang,Chris Zhao,and Jiancheng Lv. 2020. 连续空间中的修订:无对抗学习的。在AAAI人工智能集,第34卷,第8376Pengfei Liu,Weizhe Yuan,Jinlan Fu,ZhengbaoJiang , Hiroaki Hayashi , and Graham Neubig.2021年a. 预训练、提示和预测:自然语言处理中提示方法. arXiv预印本arXiv:2107.13586。RuiboLiu,ChenyanJia,andSoroushVosoughi.2021b 的 最 后 一 页 。 一 个 基 于transformer的框架,用于中和和逆转新闻文章的政治极性。美 国 计算机学会会议- Comput.互动. ,5(CSCW 1).Fuli Luo,Peng Li,Jie Zhou,Pengcheng Yang,Baobao Chang,Xu Sun,and Zhifang Sui. 2019.一个用于无监督文本风格迁移的双。在第二十八届人工智能国际联合会议的会议记录中,IJCAI 2019,中国澳门,2019年8月10日至16日,第5116-5122页。ijcai.org.Aman Madaan , Amrith Setlur , Tanmay Parekh ,Barn- abas Poczos , Graham Neubig , YimingYang , Ruslan Salakhutdinov , Alan W Black ,and Shrimai Prabhu- moye.2020. 礼貌迁移:一种附加和生成的方法。在计算语言学协会第58届年会的会议记录中,第1869计算语言学协会Remi Mir , Bjarke Felbo , Nick Obradovich , andIyad Rahwan. 2019. 评 估 文 本 的 样 式 转 换 。CoRR,绝对值/1904.02295。Shrimai Prabhumoye , Yulia Tsvetkov , RuslanSalakhut- dinov,and Alan W Black.2018. 通过回译 进 行 风 格 转 换 。 在 Proceedings of the 56thAnnualMeetingoftheAssociationforComputational Linguistics ( Volume 1 : LongPapers),pages 866-876,Melbourne,Australia.计算语言学协会。+v:mala2277获取更多论文劳尔·普里和布莱恩·卡坦扎罗。 2019. 基于生成语言模型的零样本文本分类。arXiv预印本arXiv:1912.10165。Sudha Rao和Joel Tehrult。2018. 尊敬的先生或女士,请允许我介绍GYAFC数据集:用于正式风格转换的。在计算语言学协会北美分会2018年会议论文集:人类语言技术,第1卷(长文),第129-140页,路易斯安那州新奥尔良。计算语言学协会。拉莉亚·雷诺兹和凯尔·麦克唐纳2021年大型语言模型的快速编程:超越少数范例。作者:郭文贵,郭文贵,郭文贵.乌瑟斯和扎拉娜·帕雷克2021. Textsettr:无标签文本样式提取和 可 调 的 目 标 重 新 造 型 。 计 算 语 言 学 协 会(ACL)。坂口圭介和本杰明·范杜姆。2018. 有界支持的有效在线标量标注。在计算语言学协会第56届年会的会议记录(2001年:长文),第208-218页,墨尔本,澳大利亚。计算语言学协会。蒂莫·希克和辛里奇·舒茨2021.重要的在计算语言学协会北美分会2021年会议论文集:人类语言技术,第2339-2352页,在线。计算语言学协会.Tianxiao Shen , Tao Lei , Regina Barzilay , andTommi Jaakkola. 2017. 通过交叉对齐从非平行文本进行样式转换。在神经信息处理系统的进展,第30卷。Curran Asso-ciates,Inc.Akhilesh Sudhakar , Bhargav Upadhyay , 和 ArjunMa-heswaran.2019.“Transforming”delete,retrieve,在2019年自然语言处理经验方法会议和第九届自然语言处理国际联合会议(EMNLP-IJCNLP)的会议记录中,第3269- 3279页计算语言学协会Romal Thoppilan,Daniel De Freitas,Jamie Hall,Noam Shazeer,Apoorv Kulshreshtha,Heng-TzeCheng,Alicia Jin,Taylor Bos,Leslie Baker,Yu Du,et al. 2022.Lamda:对话应用程序的语言模型。arXiv预印本arXiv:2201.08239。Ashish Vaswani , Noam Shazeer , Niki Parmar ,Jakob Uszkoreit,Llion Jones,Aidan N. 戈麦斯凯撒和伊利亚·波洛苏欣2017. 注意力就是你所需要的。CoRR,绝对值/1706.03762。Orion Weller 、 Nicholas Lourie 、 Matt Gardner 和Matthew E.彼得斯。2020. 从任务分解中学习。在 2020 年 自 然 语 言 处 理 经 验 方 法 会 议(EMNLP)的会议中,第1361-1375页。计算语言学协会。Thomas Wolf 、 Lysandre Debut 、 Victor Sanh 、Julien Chaumond 、 Clement Delangue 、 AnthonyMoi、Pier- ric Ciudad、Tim Rault、Rémi Louf、MorganFuntow-icz 、 JoeDavison 、 SamShleifer、Patrick von Platen、Clara Ma、YacineJernite 、 Julien Plu 、 Canwen Xu 、 Teven LeScao 、 Sylvain Gugger 、 Mariama Drame 、Quentin Lhoest 和 Alexander M. 急 2020. 变 形 金刚:最先进的自然语言处理。在2020年自然语言处理经验方法集:系统演示,第38-45页,在线。计算语言学协会。徐晶晶,孙旭,曾琪,张晓东,任旭成,王厚峰,李 文 杰 . 2018. Unpaired sentiment-to-sentimenttranslation : Acycledreinforcementlearningapproach. 计算语言学协会第56届年会论文集(第1卷:长文),第979-988页,澳大利亚墨尔本。计算语言学协会。Peng Xu,Yanshuai Cao,and Jackie Chi Kit Cheung.2020. 无监督文本可控表示的变分学习。机器学习国际会议论文集(ICML),abs/1905.11975。Xiang Zhang,Junbo Zhao,and Yann LeCun. 2015.用于文本分类的更高级卷积网络。神经信息处理系统。Zhemin Zhu , Delphine Bernhard , and IrynaGurevych. 2010. 一个基于单语树的句子简化翻译模 型 。 第 23 届 计 算 语 言 学 国 际 会 议 论 文 集(COLING 2010),第1353-2010年北京奥运会组委会。+v:mala2277获取更多论文附录A提示选择快速工程的一个有前途的新领域已经出现,以解决上面讨论的故障模式Reynolds和McDonell(2021)发现,提示一个任务的模型更类似于定位一个已经学习过的任务,而不是真正学习一个新的任务。此外,他们强调,及时的工程设计主要是为了避免各种故障情况,如上述。在这项工作中,我们使用分隔符(还可以使用其他分隔符(例如,引号、我们之所以选择花括号,是因为它们1)可能在其他上下文中作为delimiters出现在训练数据中,2)不经常作为输入句子本身的一部分我们还为对话框使用了第二个从数量上探讨这些备选办法将是今后工作的一个有意义的方向。由于提示的表现可能 会 因 提 示 的 确 切 语 言 而 异 ( Reynolds 和McDonell,2021),我们比较了四种不同的情绪提示:“更积极/消极”,“更快乐/悲伤”,“更乐观/悲观”和“更快乐/痛苦”。如附录中的表4所示,四种提示的性能不同,但我们发现它们是相当的。示范/提示措辞ACCBleuPPLLLM“more76.314.8180“更快乐/更悲伤”62.615.5173“more69.714.1143“more74.515.7186LLM对话框“more90.510.479“更快乐/更悲伤”85.99.690“more85.810.279“more88.811.493表4:比较情绪风格转移的增强零触发学习提示措辞的变化。BLLM输出的低BLEU正如我们在表2中看到的,我们模型的输出在人类基因方面具有较低的BLEU分数。分成几段·更清楚一点·不那么愤怒·一首歌的歌词·关于采矿·关于蔬菜·写得更好·不那么描述性·不那么邪恶·更荒谬• 更冒险·更愤怒·更快乐·更描述性·更狄更斯式·更情绪化·更花哨·更华丽·更有趣·更快乐·更神奇·更戏剧化·更哲学化·更革命化·更可怕·更微妙·更令人惊讶• 更有悬念·更有技术性·更暴力·更异想天开·更温暖·更符合语法·更有意义·用更有趣的词·用几个词表5:以“重写此...”形式请求的完整结果” made byusers to a large LM-powered text在人类评估中,它同时具有高度的语义相似性基于对输出的定性检查,我们认为这是因为尽管模型输出与源句子具有高度语义相似性,但通常使用与人类注释不同的语言。例如,为了将“自从乔易手以来,它变得越来越差”的情绪转换为积极的情绪,我们的这将有低BLEU与地面真理方面的人类参考,这是简单的虽然我们不认为这是一个固有的问题,但为了兼容性而增加BLEU可以通过候选选择以一种简单的方式完成,因为我们的模型返回16个可能的在我们更喜欢模型输出与源句子具有高词汇相似性的应用中,我们可以选择与原始源句子相比具有最高BLEU分数的十六我们发现,该候选选择步骤可以利用地面实况目标句子来显著提高BLEU分数,如我们在表8中所示。C其他相关工作风格迁移在自然语言处理领域得到了越来越多的关注,神经模型已经被训练来执行风格迁移,包括情感,正式,礼貌,性别和政治。+v:mala2277获取更多论文输入模型建议你尊重我,”布鲁诺说。说着,他笑了起来。他的笑声听起来很愉快,很悦耳。他深吸了一口气。当他再次开口时,他的声音低沉而有力。“Itake this great task on and with my brothers shalllead us on to把它改写成关于采矿的。“我想,重写它,使它更有趣。用它的南方香水重写它以使其更具描述性但是萨莉仍然把它重写得更有感情你让我感到荣幸,布鲁诺说说着,他笑了起来他的笑声深沉而严肃,仿佛来自大地深处。他深吸了一口气。当他再次说话时,他的声音低沉而黑暗。我接下这个重任,和我的兄弟们一起深入矿井!“我想,”脚趾笑着说,“你也得对冰柱说同样的话,不是吗?”这句话刚一出口,其他人就明白了他的意思。混合了甜金银花和茉莉的味道,并带有烟草和温暖的牧豆树烟雾的味道这是他的南方香水,带着一丝对简单时代的记忆。她的眼泪滚了下来,顺着她的脸颊,与她周围的盐水混合,直到水是两者的丰富她想让她的诗像以前一样欢快,但表6:模型建议被接受的用户的任意样式传输请求的示例cal slant(Prabhumoye et al. ,2018; Madaan etal. ,2020; Liu et al. ,2021b)。 我们将在这里简要总结风格迁移的主要方法,并请相关读者参考(Jin et al. ,2020)或(Hu et al. 2020年)进行调查。1.000.750.500.250.00各种款式更更包括包括包括更大多数文本样式转换方法分为两类。早期的方法倾向于需要par-textdata(Zhu et al. ,2010;Rao和Tehrult,2018),其中源样式中的每个输入在目标样式中都有相应的输出。虽然这种公式化优雅地适合标准的编码器1.000.750.500.250.00(平均值)各种款式喜剧情节剧更“公园”一词更“气球”这个词更隐喻描写更文本语料库是一个严格的要求。 因此,重新-(平均值)正式非正式积极负替代地,文本样式转换方法使用非并行的单样式数据(在源样式和目标样式中的实例之间这样的方法包括潜在表示操纵(Liu et al. ,2020),基于原型的文本编辑(Li et al. ,2018 ) 和 伪 并 行 语 料 库 构 建 ( J
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- SSM动力电池数据管理系统源码及数据库详解
- R语言桑基图绘制与SCI图输入文件代码分析
- Linux下Sakagari Hurricane翻译工作:cpktools的使用教程
- prettybench: 让 Go 基准测试结果更易读
- Python官方文档查询库,提升开发效率与时间节约
- 基于Django的Python就业系统毕设源码
- 高并发下的SpringBoot与Nginx+Redis会话共享解决方案
- 构建问答游戏:Node.js与Express.js实战教程
- MATLAB在旅行商问题中的应用与优化方法研究
- OMAPL138 DSP平台UPP接口编程实践
- 杰克逊维尔非营利地基工程的VMS项目介绍
- 宠物猫企业网站模板PHP源码下载
- 52简易计算器源码解析与下载指南
- 探索Node.js v6.2.1 - 事件驱动的高性能Web服务器环境
- 找回WinSCP密码的神器:winscppasswd工具介绍
- xctools:解析Xcode命令行工具输出的Ruby库
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功