基于预训练变压器模型的数据增强技术与应用
需积分: 10 155 浏览量
更新于2024-11-19
收藏 859KB ZIP 举报
资源摘要信息: "使用预训练的变压器模型进行数据增强的代码"
该代码主要涉及使用预训练的变压器模型进行数据增强,以提高自然语言处理(NLP)任务的性能,特别是文本分类任务。这种数据增强方法的核心思想是通过对现有数据集进行变换和扩充,以改善模型的泛化能力。代码最初发布于Amazon-research软件包中,并且提供了一个副本供研究人员和开发者使用。
代码中实现了多种数据扩充方法,包括以下几种基准方法和一些创新方法:
- EDA(Easy Data Augmentation)方法:通过同义词替换、随机插入、随机交换和随机删除等简单的文本转换技术来扩充数据集。
- 回译(Back-Translation)方法:使用一个预训练的语言模型将文本翻译成另一种语言,然后再翻译回原始语言,以此来生成新的扩充样本。
- CBERT(Contrastive BERT)方法:通过在原始文本和其扩充版本之间引入对比学习,增强模型的区分能力。
- BERT Prepend:在文本前添加一些词汇或短语,通过修改输入序列来扩充数据集。
- GPT-2前置(我们的论文):利用GPT-2模型生成的文本作为新的训练样本。
- BART前置(我们的论文):同样,使用BART模型进行文本生成,以增加训练数据的多样性。
在进行数据增强实验时,研究者使用了三个公开的数据集:
- STSA-2(Sentiment Treebank):这是一个针对句子级情感分析的数据集。
- TREC(Text REtrieval Conference):包含问答系统评估的任务相关数据。
- SNIPS:一个用于构建面向用户意图识别和槽填充的多领域数据集。
在低数据状态实验设置中,可以通过运行src/utils/download_and_prepare_datasets.sh脚本来准备和下载所有数据集,并进行必要的预处理步骤,例如从GitHub下载数据,以及使用STSA-2和TREC数据集的文本替换数字标签。对于给定的数据集,还需要创建数据集的处理版本。
该代码利用了transformers库中的预训练模型如BERT, GPT-2, BART等,这使得研究人员能够利用大型预训练模型进行有效的数据增强。这些模型在自然语言理解任务上表现出色,并且通过数据增强可以进一步提升其性能。
涉及到的标签如nlp、text-classification、transformers、classification、bart、bert、data-augmentation和gpt-2表明了代码的主要应用场景和所依赖的先进技术和方法。Python是实现这些功能的主要编程语言。
压缩包子文件的名称为TransformersDataAugmentation-main,这是代码的主文件夹名称。在此主文件夹下,可能包含了子文件夹和文件,它们分别存放着数据增强的代码实现、预训练模型使用代码、数据集处理脚本以及相关的测试用例等。
总结来说,该代码资源旨在提供一种利用预训练变压器模型进行有效数据增强的实践方法,这对于希望在数据稀缺情况下提升NLP模型性能的研究人员和开发者来说,是一个非常有价值的工具。
2021-05-25 上传
2021-02-03 上传
2021-02-03 上传
2021-05-04 上传
2021-04-14 上传
2021-02-03 上传
2021-04-23 上传
2021-04-05 上传
2021-04-13 上传