transformer是预训练嘛
时间: 2023-10-16 22:07:08 浏览: 150
chatGPT原理及应用场景分析.docx
5星 · 资源好评率100%
Transformer不是一个预训练模型,而是一种模型架构。然而,从Transformer模型中演化而来的BERT(Bidirectional Encoder Representations from Transformers)是一种预训练语言模型。它利用Transformer的架构进行预训练,并在各种下游自然语言处理任务上取得了显著的性能提升。
阅读全文