Chinese-LLaMA-Plus
时间: 2024-01-06 09:03:08 浏览: 61
Chinese-LLaMA-Plus是一个中文语言模型,它是在中文LLaMA模型的基础上进行了扩充和改进。它使用了中文通用纯文本数据进行二次预训练,并且具有更大的模型大小。Chinese-LLaMA-Plus有多个版本,包括Chinese-LLaMA-Plus-7B和Chinese-LLaMA-Plus-13B,它们分别具有更大的训练数据和模型大小。这些模型可以用于各种自然语言处理任务,如文本生成、问答和对话交互。如果您对于ChatGPT对话交互有兴趣,建议使用Alpaca模型而不是LLaMA模型。
#### 引用[.reference_title]
- *1* *3* [中文版LLaMA:Chinese-LLaMA-Alpaca](https://blog.csdn.net/u013250861/article/details/131160175)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item]
- *2* [达到chatgpt 90%效果的llama,Chinese-Alpaca-Plus-13B合并使用全过程分享](https://blog.csdn.net/qq_39970492/article/details/131070115)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item]
[ .reference_list ]