chatglm2-6b微调加上langchain
时间: 2023-09-09 12:12:31 浏览: 396
根据引用和引用的内容,可以使用ChatGLM-6B模型结合langchain实现对话中的本地知识库链接。ChatGLM-6B模型在多轮对话和长答案生成方面可能存在上下文丢失和理解错误的情况,为了解决这个问题,可以通过微调ChatGLM-6B模型并使用langchain来加强其多轮对话能力。具体操作是将ChatGLM-6B模型的路径替换为经过P-Tuning微调后的checkpoint地址,从而使得模型能够在多轮对话中进行适当的回复。请注意,目前的微调还不支持多轮数据,所以只有对话第一轮的回复是经过微调的。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [ChatGLM2-6B的P-Tuning微调](https://blog.csdn.net/weixin_43815222/article/details/131553200)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *2* *3* [ChatGLM2-6B、ChatGLM-6B 模型介绍及训练自己数据集实战](https://blog.csdn.net/dream_home8407/article/details/130099656)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文