《AI研发新突破:自主训练LoRA技术细节揭秘》

6 下载量 65 浏览量 更新于2024-10-07 1 收藏 53.46MB ZIP 举报
资源摘要信息:"《AI 研发提效研究:自己动手训练 LoRA》是关于如何使用低秩适应器(Low-Rank Adaptation,简称LoRA)技术来提高人工智能模型训练效率的研究。本资源详细探讨了在Llama和ChatGLM这类大型语言模型上应用LoRA技术的过程,并提供了关于如何训练模型以实现具体AI应用的指南。Llama和Alpaca LoRA模型是被关注的两种具有代表性的语言模型,它们是基于对大型预训练模型如GPT进行微调的框架。而ChatGLM Tuning是将LoRA应用于聊天机器人模型调整的一种技术。训练内容包括但不限于用户故事生成、测试代码生成、代码辅助生成、文本转SQL以及文本生成代码等应用。本资源的文件名称为‘unit-minions-master.zip’,暗示了一个包含众多‘小工’或‘小助手’的角色,可能是指训练好的模型或辅助工具,能够协助完成各种研发任务。标签‘人工智能’和‘lora’指明了本资源的研究领域和核心技术。" 知识点详细说明: ***研发提效: - AI研发提效是指在人工智能领域中,通过各种方法和技术提高研发效率的过程。这可以包括自动化工具的使用、更高效的算法设计、更好的数据处理技术等。 2. LoRA技术: - LoRA是低秩适应器(Low-Rank Adaptation)的缩写,是一种用于深度学习模型微调的技术。通过在大型预训练模型的基础上应用低秩分解,以小规模的参数调整达到与大规模模型相媲美的效果,从而降低计算成本和资源消耗。 3. Llama模型: - Llama可能指的是一个语言模型或特定的AI应用,但在本资源中没有详细描述。如果指的是大型语言模型,那么它可能类似于GPT或BERT这样的预训练模型,可以用于文本生成、摘要、翻译等多种任务。 4. Alpaca LoRA: - Alpaca LoRA可能是一个特定的模型变体,结合了LoRA技术和某个原始的模型,例如Alpaca。这个组合模型能够在保持原有模型性能的同时,减少训练和推理时所需的计算资源。 5. ChatGLM Tuning: - ChatGLM可能是基于LoRA技术进行微调的聊天机器人模型。Tuning意味着对预训练模型进行调整或优化,使其更好地适应特定任务或领域的需求。 6. 训练内容: - 用户故事生成: 指的是训练模型自动生成用户使用软件产品的故事或案例,这对于产品设计和开发过程非常有用。 - 测试代码生成: 训练AI模型生成自动化测试代码,以提高软件测试的效率和覆盖率。 - 代码辅助生成: AI模型帮助开发人员通过自动补全代码或提供代码建议来提高编程效率。 - 文本转SQL: 指的是训练AI模型将自然语言描述转换为SQL查询语句,用于数据库管理和数据分析。 - 文本生成代码: 使AI能够根据自然语言描述生成相应的源代码,实现功能需求。 7. unit-minions-master.zip文件: - 这个文件名称可能暗示了包含有多个小助手或组件,它们能够执行各种任务或作为模块被集成到其他系统中去。这些组件可能是已经训练好的模型,或者是辅助工具,用于支持上述训练内容的具体实现。 8. 标签"人工智能"和"lora": - 这两个标签明确了文档的核心主题。"人工智能"是涉及创建能够执行任务的智能机器的广泛领域,而"lora"则是文档讨论的特定技术。

create LoRA network. base dim (rank): 64, alpha: 32 neuron dropout: p=None, rank dropout: p=None, module dropout: p=None create LoRA for Text Encoder: 72 modules. create LoRA for U-Net: 192 modules. enable LoRA for text encoder enable LoRA for U-Net Traceback (most recent call last): File "D:\lora_lian\sd-scripts\train_network.py", line 873, in <module> train(args) File "D:\lora_lian\sd-scripts\train_network.py", line 242, in train info = network.load_weights(args.network_weights) File "D:\lora_lian\sd-scripts\networks\lora.py", line 884, in load_weights info = self.load_state_dict(weights_sd, False) File "D:\lora_lian\python\lib\site-packages\torch\nn\modules\module.py", line 2041, in load_state_dict raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format( RuntimeError: Error(s) in loading state_dict for LoRANetwork: size mismatch for lora_unet_mid_block_attentions_0_proj_out.lora_up.weight: copying a param with shape torch.Size([1280, 128, 1, 1]) from checkpoint, the shape in current model is torch.Size([1280, 64, 1, 1]). Traceback (most recent call last): File "D:\lora_lian\python\lib\runpy.py", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "D:\lora_lian\python\lib\runpy.py", line 86, in _run_code exec(code, run_globals) File "D:\lora_lian\python\lib\site-packages\accelerate\commands\launch.py", line 1114, in <module> main() File "D:\lora_lian\python\lib\site-packages\accelerate\commands\launch.py", line 1110, in main launch_command(args) File "D:\lora_lian\python\lib\site-packages\accelerate\commands\launch.py", line 1104, in launch_command simple_launcher(args) File "D:\lora_lian\python\lib\site-packages\accelerate\commands\launch.py", line 567, in simple_launcher raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd) subprocess.CalledProcessError: Command '['D:\\lora_lian\\python\\python.exe', './sd-scripts/train_network.py', '--config_file', 'D:\\lora_lian\\toml\\autosave\\20230709-112914.toml']' returned non-zero exit status 1. Training failed / 训练失败

2023-07-10 上传