https://arxiv.org/abs/1902.04864
时间: 2024-05-28 11:06:37 浏览: 163
直接稀疏里程表-C/C++开发
这篇论文的题目是《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》,它是由Google AI Language团队发布的一篇自然语言处理领域的论文。BERT是Bidirectional Encoder Representations from Transformers的缩写,是一种基于Transformer的深度双向编码器,可以用于各种自然语言处理任务,比如阅读理解、命名实体识别、情感分析等。BERT采用了预训练的方式,使用大量的无标注数据进行预训练,然后在特定任务上进行微调,使得BERT在各种自然语言处理任务上都取得了非常好的效果。此外,该论文提出了一种新的Masked Language Model预训练任务,通过随机地屏蔽输入中的一些单词,让模型来预测这些被屏蔽掉的单词,从而使得模型能够更好地理解上下文信息。
阅读全文