小于2b的大语言模型有哪些
时间: 2024-05-21 08:08:33 浏览: 291
目前小于2B的大语言模型主要有以下几种:
1. GPT-Neo:由EleutherAI团队开发,是一个开源的模型,参数量约1.3B。
2. DeBERTa:由Microsoft团队开发,参数量约1.5B,在NLU任务上表现较为优秀。
3. Meena:由Google团队开发,参数量约2.6B,主要用于对话生成任务。
4. GShard:由Google团队开发,参数量约1.7B,使用分布式训练技术,可实现更快的训练速度和更大的模型规模。
5. T5:由Google团队开发,参数量约1.3B,可用于多种NLP任务,如文本分类、问答、文本摘要等。
阅读全文