LLM + LoRA 微调
时间: 2023-09-13 13:04:23 浏览: 452
LLM+赋能研发效能提升
LLM LoRA微调是一种基于LoRA技术的微调方法,它在每个Transformer块中注入可训练层,通过减少需要训练参数的数量和降低GPU内存需求,从而实现了更快的速度和更少的计算量。研究发现,LLM LoRA微调的质量与全模型微调相当,并且适用于低延迟和低内存需求的场景。这种微调方法在LLM LoRA中的实现是通过LoRA基本原理和PEFT中的实现来完成的。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [LLM-项目详解-Chinese-LLaMA-AIpaca(一):LLM+LoRa微调加速技术原理及基于PEFT的动手实践:一些思考和mt0...](https://blog.csdn.net/u013250861/article/details/131218221)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]
阅读全文