chatgml清华模型
时间: 2023-09-22 17:14:18 浏览: 147
您可能指的是清华大学自然语言处理与社会人文计算实验室(THUNLP)开发的中文聊天机器人模型,该模型被命名为ChatGPT。这个模型是基于GPT-2(Generative Pre-trained Transformer 2)模型的中文预训练模型。它可以用于生成中文对话和回答中文问题。ChatGPT的训练数据包括了从微博、贴吧、知乎等社交媒体平台上收集的大量中文文本数据。它是一个开源的模型,可以在GitHub上获取源代码和预训练模型。
相关问题
清华大学 张超 大模型
对不起,我无法提供关于具体个人或清华大学特定大模型的信息。清华大学在人工智能领域确实进行了广泛的研究和开发,但公开的大模型通常指的是像通义千问这样由阿里云推出的预训练模型。如果你对清华大学在人工智能领域的整体研究、成果或者他们参与的大型项目感兴趣,我可以为你提供一些一般性的介绍,例如他们可能在自然语言处理、计算机视觉或机器学习等方面有所贡献。
清华大学的gpt模型
清华大学的GPT模型是指由清华大学的研究人员开发的多模态(对话)大模型,也被称为VPGTrans框架。该模型通过将现有的VPG(视觉-语言预训练生成模型)迁移到现有的VL-LLM(视觉语言联合预训练模型)中,实现了低成本训练一个高性能的多模态大模型。这个模型扩展了基于文本的ChatGPT的能力,使其能够进行多模态的语义理解。研究人员发现,直接迁移一个在LLM上训练好的VPG到大LLM可以加速模型收敛,但效果有限,模型效果可能会相对于从头训练VPG有所下降。因此,VPGTrans框架提供了一种低成本的训练方法来获得目标的多模态大模型。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [训练成本不到1000元,直降90%!NUS、清华发布VPGTrans:轻松定制类GPT-4多模态大模型...](https://blog.csdn.net/k6T9Q8XKs6iIkZPPIFq/article/details/130817917)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]