多机多卡训练模型案例

时间: 2025-01-31 21:45:28 浏览: 23

多机多卡环境下的模型训练

在分布式环境中进行多机多卡训练能够显著提升大规模数据集上的模型训练效率。PyTorch 提供了 torch.distributed 模块来支持这种类型的并行计算[^1]。

使用 PyTorch 的 Distributed Data Parallel (DDP)

相比于传统的 DataParallel 方式,DistributedDataParallel 更适合处理大型集群中的高效通信需求。通过集成 NVIDIA 的 NCCL 库作为后端,可以在 GPU 之间实现高效的集体通信原语操作,如广播、全规约等[^3]。

下面是一个简单的 DDP 训练脚本的例子:

import os
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, Dataset
from torchvision import datasets, transforms
import torch.distributed as dist
from torch.nn.parallel import DistributedDataParallel as DDP


def setup(rank, world_size):
    os.environ['MASTER_ADDR'] = 'localhost'
    os.environ['MASTER_PORT'] = '12355'

    # 初始化进程组
    dist.init_process_group("nccl", rank=rank, world_size=world_size)


class ToyModel(nn.Module):
    def __init__(self):
        super().__init__()
        layers = []
        current_dim = 784  # MNIST 图像大小为 28*28
        for _ in range(2):
            next_dim = max(current_dim // 2, 10)
            layers.append(nn.Linear(current_dim, next_dim))
            layers.append(nn.ReLU())
            current_dim = next_dim
        
        self.network = nn.Sequential(*layers, nn.Linear(next_dim, 10))

    def forward(self, x):
        batch_size = x.size()[0]
        return self.network(x.view(batch_size, -1))


def train_model(rank, size):
    transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])
    
    dataset_train = datasets.MNIST('.', download=True, transform=transform, train=True)
    sampler = torch.utils.data.DistributedSampler(dataset_train, num_replicas=size, rank=rank)
    dataloader = DataLoader(dataset_train, batch_size=64, shuffle=False, sampler=sampler)

    model = ToyModel().to(rank)
    ddp_model = DDP(model, device_ids=[rank])

    loss_fn = nn.CrossEntropyLoss()
    optimizer = optim.Adam(ddp_model.parameters())

    for epoch in range(10):  
        running_loss = 0.0
        for i, data in enumerate(dataloader, start=0):
            inputs, labels = data[0].to(rank), data[1].to(rank)

            outputs = ddp_model(inputs)
            loss = loss_fn(outputs, labels)

            optimizer.zero_grad()
            loss.backward()
            optimizer.step()

            running_loss += loss.item()


if __name__ == "__main__":
    world_size = 4  # 假设有四张显卡可用
    mp.spawn(train_model,
             args=(world_size,),
             nprocs=world_size,
             join=True)

此代码展示了如何设置一个多节点、多GPU的训练过程,并利用MNIST手写数字识别任务进行了简化说明。实际应用中可能还需要考虑更多细节配置以及性能优化措施。

向AI提问 loading 发送消息图标

相关推荐

一、目的1. 加速训练过程2. 适应大规模数据3. 资源利用率高4. 提升训练速度5. 增大系统容量6. 提高系统可用性7. 加速模型迭代二、 LLaMA-Factory1.安装2. LLaMA-Factory 校验三、 训练引擎1.DDP2. DeepSpeed3.FSDP四、WebUI五. 参数配置1. 模型2. 数据3. 训练参数4. 多卡参数1. ZeRO-12. ZeRO-23. ZeRO-3六、训练七、推理八、XTuner一、目的分布式训练是一种在多个计算节点上共同完成机器学习模型训练任务的过程,它可以充分利用多台计算机的资源,提高训练效率和模型准确性。分布式训练的主要优势包括:1. 加速训练过程通过并行计算,分布式训练大幅缩短了训练时间,提高了训练效率。提高模型准确性:利用更多的计算资源和数据样本进行训练,减少了过拟合风险,提高了模型的泛化能力和准确性。2. 适应大规模数据分布式训练能够处理传统单机训练难以应对的大规模数据集。3. 资源利用率高有效利用了计算资源,避免了单机训练时的资源闲置和浪费。4. 提升训练速度通过并行计算,分布式训练能够显著缩短模型训练的时间,尤其是在处理大规模数据集和复杂模型时效果更为明显。5. 增大系统容量随着业务量的增长,单机性能已无法满足需求。分布式训练通过多台计算设备的协同工作,能够应对更大规模的应用场景。6. 提高系统可用性分布式架构能够消除单点故障,提高系统的整体可用性。即使某个计算设备出现故障,也不会影响整个训练任务的进行。7. 加速模型迭代在快速迭代的机器学习项目中,分布式训练能够更快地完成模型训练,从而加速模型迭代和优化过程。总的来说,分布式训练在深度学习领域提高训练效率和加快模型收敛的重要手段 。二、 LLaMA-Factory1.安装在安装 LLaMA-Factory 之前,请确保您安装了下列依赖:运行以下指令以安装 LLaMA-Factory 及其依赖:git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.gitcd LLaMA-Factorypip install -e ".[torch,metrics]"123如果出现环境冲突,请尝试使用 pip install --no-deps -e . 解决2. LLaMA-Factory 校验完成安装后,可以通过使用 llamafactory-cli version 来快速校验安装是否成功如果看到类似下面的界面,就说明安装成功了。 Successfully uninstalled requests-2.31.0 Attempting uninstall: anyio Found existing installation: anyio 4.4.0 Uninstalling anyio-4.4.0: Successfully uninstalled anyio-4.4.0Successfully installed accelerate-1.2.1 aiofiles-23.2.1 aiohappyeyeballs-2.4.6 aiohttp-3.11.12 aiosignal-1.3.2 annotated-types-0.7.0 anyio-4.8.0 audioread-3.0.1 av-14.1.0 click-8.1.8 datasets-3.2.0 dill-0.3.8 docstring-parser-0.16 einops-0.8.1 fastapi-0.115.8 ffmpy-0.5.0 fire-0.7.0 frozenlist-1.5.0 gradio-5.12.0 gradio-client-1.5.4 huggingface-hub-0.28.1 jieba-0.42.1 joblib-1.4.2 lazy-loader-0.4 librosa-0.10.2.post1 llamafactory-0.9.2.dev0 llvmlite-0.44.0 markdown-it-py-3.0.0 mdurl-0.1.2 msgpack-1.1.0 multidict-6.1.0 multiprocess-0.70.16 nltk-3.9.1 numba-0.61.0 orjson-3.10.15 pandas-2.2.3 peft-0.12.0 pooch-1.8.2 propcache-0.2.1 pyarrow-19.0.0 pydantic-2.10.6 pydantic-core-2.27.2 pydub-0.25.1 python-multipart-0.0.20 pytz-2025.1 regex-2024.11.6 requests-2.32.3 rich-13.9.4 rouge-chinese-1.0.3 ruff-0.9.6 safehttpx-0.1.6 safetensors-0.5.2 scikit-learn-1.6.1 scipy-1.15.1 semantic-version-2.10.0 sentencepiece-0.2.0 shellingham-1.5.4 shtab-1.7.1 soundfile-0.13.1 soxr-0.5.0.post1 sse-starlette-2.2.1 starlette-0.45.3 termcolor-2.5.0 threadpoolctl-3.5.0 tiktoken-0.9.0 tokenizers-0.21.0 tomlkit-0.13.2 tqdm-4.67.1 transformers-4.48.3 trl-0.9.6 typer-0.15.1 typing-extensions-4.12.2 tyro-0.8.14 tzdata-2025.1 uvicorn-0.34.0 websockets-14.2 xxhash-3.5.0 yarl-1.18.3WARNING: Running pip as the 'root' user can result in broken permissions and conflicting behaviour with the system package manager. It is recommended to use a virtual environment instead: https://pip.pypa.io/warnings/venvroot@autodl-container-c2d74383d9-db8bb7c4:~/autodl-tmp/LLaMA-Factory# llamafactory-cli version----------------------------------------------------------| Welcome to LLaMA Factory, version 0.9.2.dev0 || || Project page: https://github.com/hiyouga/LLaMA-Factory |----------------------------------------------------------root@autodl-container-c2d74383d9-db8bb7c4:~/autodl-tmp/LLaMA-Factory# 1234567891011121314三、 训练引擎LLaMA-Factory 支持单机多卡多机多卡分布式训练。同时也支持 DDP , DeepSpeed 和 FSDP 三种分布式引擎。1.DDPDDP (DistributedDataParallel) 通过实现模型并行和数据并行实现训练加速。 使用 DDP 的程序需要生成多个进程并且为每个进程创建一个 DDP 实例,他们之间通过 torch.distributed 库同步。2. DeepSpeedDeepSpeed 是微软开发的分布式训练引擎,并提供ZeRO(Zero Redundancy Optimizer)、offload、Sparse Attention、1 bit Adam、流水线并行等优化技术。 您可以根据任务需求与设备选择使用。3.FSDP通过全切片数据并行技术(Fully Sharded Data Parallel)来处理更多更大的模型。在 DDP 中,每张 GPU 都各自保留了一份完整的模型参数和优化器参数。而 FSDP 切分了模型参数、梯度与优化器参数,使得每张 GPU 只保留这些参数的一部分。 除了并行技术之外,FSDP 还支持将模型参数卸载至CPU,从而进一步降低显存需求。由于deepseek分布式训练加速,采用混合精度(fp16/fp32)和ZeRO优化,减少显存占用,从而加速训练。所以本文采用DeepSpeed 是训练引擎。四、WebUILLaMA-Factory 支持通过 WebUI 零代码微调大语言模型。 在完成 安装 后,您可以通过以下指令进入 WebUI:llamafactory-cli webui1WebUI 主要分为四个界面:训练、评估与预测、对话、导出。当运行上面命令后,打开如下界面在开始训练模型之前,需要指定的参数有:模型名称及路径训练阶段微调方法训练数据集学习率、训练轮数等训练参数微调参数等其他参数输出目录及配置路径

最新推荐

recommend-type

SQL入门指南:从零开始掌握数据库操作.pdf

内容概要:本文档是一份详细的SQL入门指南,旨在帮助初学者全面掌握SQL的基本概念和技术。首先介绍了SQL的基础知识及其重要性,解释了为什么学习SQL对数据分析和软件开发至关重要。接着详细讲解了如何快速搭建SQL环境,包括在线沙箱和本地安装两种方式。随后深入探讨了SQL的基础语法,如创建数据库和表、插入、查询、更新和删除数据的操作。进一步解析了核心操作,如复杂的查询语句结构、多表关联查询以及实用的功能,如条件表达式、日期处理和字符串操作。最后提供了新手常见问题的解决方案和性能优化建议,并推荐了一些学习资源。 适合人群:对数据库操作感兴趣的初学者,尤其是希望从事数据分析或软件开发的人士。 使用场景及目标:适用于想要系统学习SQL基础知识和核心操作的个人,目标是在实践中掌握SQL技能,能够独立进行数据库管理和操作。 其他说明:文档不仅涵盖了理论知识,还提供了大量实例和练习建议,帮助读者更好地理解和应用所学内容。
recommend-type

hiddenite-shops:Minecraft Bukkit商店交易插件

Minecraft 是一款流行的沙盒游戏,允许玩家在虚拟世界中探索、建造和生存。为了增加游戏的可玩性和互动性,开发者们创造了各种插件来扩展游戏的功能。Bukkit 是一个流行的 Minecraft 服务器端插件API,它允许开发人员创建插件来增强服务器的功能。本文将详细介绍一个基于 Bukkit API 的插件——hiddenite-shops,该插件的主要功能是在 Minecraft 游戏中的商店系统中进行商品的买卖。 首先,我们需要了解 Bukkit 是什么。Bukkit 是一款开源的 Minecraft 服务器软件,它允许开发人员利用 Java 编程语言创建插件。这些插件可以修改、增强游戏的玩法或添加新的游戏元素。Bukkit 插件通常托管在各种在线代码托管平台如 GitHub 上,供玩家和服务器运营者下载和安装。 说到 hiddenite-shops 插件,顾名思义,这是一个专注于在 Minecraft 中创建商店系统的插件。通过这个插件,玩家可以创建自己的商店,并在其中摆放出售的商品。同时,玩家也可以在别人的商店中购物。这样的插件极大地丰富了游戏内的交易模式,增加了角色扮演的元素,使游戏体验更加多元化。 在功能方面,hiddenite-shops 插件可能具备以下特点: 1. 商品买卖:玩家可以把自己不需要的物品放置到商店中出售,并且可以设定价格。其他玩家可以购买这些商品,从而促进游戏内的经济流通。 2. 商店管理:每个玩家可以创建属于自己的商店,对其商店进行管理,例如更新商品、调整价格、装饰商店界面等。 3. 货币系统:插件可能包含一个内置的货币系统,允许玩家通过虚拟货币来购买和出售商品。这种货币可能需要玩家通过游戏中的某些行为来获取,比如采矿、钓鱼或完成任务。 4. 权限控制:管理员可以对商店进行监管,设定哪些玩家可以创建商店,或者限制商店的某些功能,以维护游戏服务器的秩序。 5. 交易记录:为了防止诈骗和纠纷,hiddenite-shops 插件可能会记录所有交易的详细信息,包括买卖双方、交易时间和商品详情等。 在技术实现上,hiddenite-shops 插件需要遵循 Bukkit API 的规范,编写相应的 Java 代码来实现上述功能。这涉及到对事件监听器的编程,用于响应游戏内的各种动作和事件。插件的开发人员需要熟悉 Bukkit API、Minecraft 游戏机制以及 Java 编程语言。 在文件名称列表中,提到的 "hiddenite-shops-master" 很可能是插件代码的仓库名称,表示这是一个包含所有相关源代码、文档和资源文件的主版本。"master" 通常指代主分支,是代码的最新且稳定版本。在 GitHub 等代码托管服务上,开发者通常会在 master 分支上维护代码,并将开发中的新特性放在其他分支上,直到足够稳定后再合并到 master。 总的来说,hiddenite-shops 插件是对 Minecraft Bukkit 服务器功能的一个有力补充,它为游戏世界中的经济和角色扮演提供了新的元素,使得玩家之间的交易和互动更加丰富和真实。通过理解和掌握该插件的使用,Minecraft 服务器运营者可以为他们的社区带来更加有趣和复杂的游戏体验。
recommend-type

【SSM框架快速入门】

# 摘要 本文旨在详细介绍SSM(Spring + SpringMVC + MyBatis)框架的基础与高级应用,并通过实战案例分析深入解析其在项目开发中的实际运用。首先,文章对SSM框架进行了概述,随后逐章深入解析了核心组件和高级特性,包括Spring的依赖注入、AOP编程、SpringMVC的工作流程以及MyBatis的数据持久化。接着,文章详细阐述了SSM框架的整合开发基础,项目结构配置,以及开发环境的搭建和调试。在高级应用
recommend-type

项目环境搭建及系统使用说明用例

### Postman 示例 API 项目本地部署教程 对于希望了解如何搭建和使用示例项目的用户来说,可以从以下几个方面入手: #### 环境准备 为了成功完成项目的本地部署,需要按照以下步骤操作。首先,将目标项目 fork 至自己的 GitHub 账户下[^1]。此过程允许开发者拥有独立的代码仓库副本以便于后续修改。 接着,在本地创建一个新的虚拟环境来隔离项目所需的依赖项,并通过 `requirements.txt` 文件安装必要的库文件。具体命令如下所示: ```bash python -m venv my_env source my_env/bin/activate # Linu
recommend-type

Windows Media Encoder 64位双语言版发布

Windows Media Encoder 64位(英文和日文)的知识点涵盖了软件功能、操作界面、编码特性、支持的设备以及API和SDK等方面,以下将对这些内容进行详细解读。 1. 软件功能和应用领域: Windows Media Encoder 64位是一款面向Windows操作系统的媒体编码软件,支持64位系统架构,是Windows Media 9系列中的一部分。该软件的主要功能包括录制和转换视频文件。它能够让用户通过视频捕捉设备或直接从电脑桌面上录制视频,同时提供了丰富的文件格式转换选项。Windows Media Encoder广泛应用于网络现场直播、点播内容的提供以及视频文件的制作。 2. 用户界面和操作向导: 软件提供了一个新的用户界面和向导,旨在使初学者和专业用户都容易上手。通过简化的设置流程和直观的制作指导,用户能够快速设定和制作影片。向导会引导用户选择适当的分辨率、比特率和输出格式等关键参数。 3. 编码特性和技术: Windows Media Encoder 64位引入了新的编码技术,如去隔行(de-interlacing)、逆向电影转换(inverse telecine)和屏幕捕捉,这些技术能够显著提高视频输出的品质。软件支持从最低320x240分辨率60帧每秒(fps)到最高640x480分辨率30fps的视频捕捉。此外,它还能处理最大到30GB大小的文件,这对于长时间视频录制尤其有用。 4. 支持的捕捉设备: Windows Media Encoder 64位支持多种视频捕捉设备,包括但不限于Winnov、ATI、Hauppauge等专业视频捕捉卡,以及USB接口的视频摄像头。这为用户提供了灵活性,可以根据需要选择合适的硬件设备。 5. 高级控制选项和网络集成: Windows Media Encoder SDK是一个重要的组件,它为网站开发者提供了全面的编码控制功能。开发者可以利用它实现从网络(局域网)进行远程控制,或通过API编程接口和ASP(Active Server Pages)进行程序化的控制和管理。这使得Windows Media Encoder能够更好地融入网站和应用程序中,提供了更广阔的使用场景,例如自动化的视频处理流水线。 6. 兼容性和语言版本: 本文件提供的版本是Windows Media Encoder 64位的英文和日文版本。对于需要支持多语言用户界面的场合,这两个版本的软件能够满足不同语言用户的需求。经过测试,这些版本均能正常使用,表明了软件的兼容性和稳定性。 总结来说,Windows Media Encoder 64位(英文和日文)是一款功能强大、易于操作的媒体编码软件。它在操作便捷性、视频编码品质、设备兼容性和程序化控制等方面表现突出,适合用于视频内容的创建、管理和分发。对于需要高质量视频输出和网络集成的用户而言,无论是个人创作者还是专业视频制作团队,该软件都是一种理想的选择。
recommend-type

【IEEE 14总线系统Simulink模型:从零到专家的终极指南】:构建、仿真及故障诊断

# 摘要 本文详细介绍了IEEE 14总线系统的Simulink模型构建、仿真分析以及故障诊断技术。第一章提供了系统概述,为后续章节打下基础。第二章深入探讨了Simulink模型的构建,涵盖了用户界面、工具模块、电路元件、负荷及发电机组建模方法,以及模型的参数化和优化。第三章讲述了如何进行IEEE 14总线系统的仿真以及如
recommend-type

树莓派改中文

### 树莓派修改系统语言为中文教程 要将树莓派的操作系统界面或设置更改为中文,可以按照以下方法操作: #### 方法一:通过图形化界面更改语言 如果已经启用了树莓派的桌面环境并能够正常访问其图形化界面,则可以通过以下方式更改系统语言: 1. 打开 **Preferences(首选项)** 菜单。 2. 进入 **Raspberry Pi Configuration(树莓派配置)** -> **Localisation(本地化)**。 3. 设置 **Change Locale(更改区域设置)** 并选择 `zh_CN.UTF-8` 或其他适合的语言编码[^1]。 完成上述步骤后,重启设
recommend-type

SenseLock精锐IV C# API使用与代码示例教程

根据给定文件信息,我们可以推断出以下知识点: 标题中提到了"SenseLock 精锐IV C# 使用说明及例子",说明此文档是关于SenseLock公司出品的精锐IV产品,使用C#语言开发的API调用方法及相关示例的说明。SenseLock可能是一家专注于安全产品或服务的公司,而精锐IV是其旗下的一款产品,可能是与安全、加密或者硬件锁定相关的技术解决方案。文档可能包含了如何将该技术集成到C#开发的项目中,以及如何使用该技术的详细步骤和代码示例。 描述中提到"SenseLock API调用 测试通过 还有代码 及相关文档",说明文档中不仅有SenseLock产品的C# API调用方法,而且这些方法经过了测试验证,并且提供了相应的代码样例以及相关的技术文档。这表明用户可以通过阅读这份资料来了解如何在C#环境中使用SenseLock提供的API进行软件开发,以及如何在开发过程中解决潜在的问题。 标签为"SenseLock C# API",进一步确认了该文件的内容是关于SenseLock公司提供的C#编程语言接口。标签的作用是作为标识和分类,方便用户根据关键词快速检索到相关的文件。这里的信息提示我们,此文件对于那些希望在C#程序中集成SenseLock技术的开发者来说非常有价值。 压缩包的文件名称列表显示有两个文件:一个是"精锐IV C# 使用.docx",这个文件很可能是一个Word文档,用于提供详细的使用说明和例子,这可能包括精锐IV产品的功能介绍、API接口的详细说明、使用场景、示例代码等;另一个是"32bitdll",这可能是一个32位的动态链接库文件,该文件是C#程序中可以被调用的二进制文件,用于执行特定的API函数。 总结一下,该压缩包文件可能包含以下几个方面的知识点: 1. SenseLock精锐IV产品的概述:介绍产品的功能、特性以及可能的应用场景。 2. C# API接口使用说明:详细解释API的使用方法,包括如何调用特定的API函数,以及每个函数的参数和返回值。 3. API调用示例代码:提供在C#环境中调用SenseLock API的具体代码样例,帮助开发者快速学习和应用。 4. 测试验证信息:说明API调用方法已经通过了哪些测试,保证其可靠性和有效性。 5. 32位动态链接库文件:为C#项目提供必要的可执行代码,用于实现API调用的功能。 该文档对于希望在C#项目中集成SenseLock精锐IV产品的开发者来说,是一份非常有价值的参考资料,能够帮助他们理解如何在软件开发中利用SenseLock提供的技术,并快速实现解决方案。
recommend-type

深入理解PgSQL绿色版:揭秘其优势与五大应用案例

# 摘要 PgSQL绿色版是一种轻量级、易于部署的数据库系统,旨在提供高性能、高稳定性的数据库服务,同时保持环境兼容性和可移植性。本文首先概述了PgSQL绿色版的基本概念,随后详细阐述了其核心优势,包括高效的数据存储结构和并发处理能力、简单的安装与部署流程,以及对多种操作系统的支持。通过分析不同应用场景如Web应用、数据分析、开源项目、嵌入式设备和大数据处理的案例,本文展示了PgS
recommend-type

ubuntu开机pcie bus error刷屏

### Ubuntu 开机 PCIE Bus Error 刷屏问题解决方案 在遇到 Ubuntu 开机时因 `PCIE Bus Error` 导致刷屏的问题时,可以通过调整系统的启动参数来解决问题。以下是具体的解决方法: #### 修改 Grub 文件配置 通过编辑 `/etc/default/grub` 文件中的启动参数可以有效缓解此问题。 1. **进入恢复模式** 如果系统无法正常启动到图形界面,则需要先通过 GRUB 菜单进入恢复模式。按下电源键启动计算机,在 BIOS 自检完成后迅速按住 Shift 键以调出 GRUB 启动菜单。选择带有 `(recovery mode)
手机看
程序员都在用的中文IT技术交流社区

程序员都在用的中文IT技术交流社区

专业的中文 IT 技术社区,与千万技术人共成长

专业的中文 IT 技术社区,与千万技术人共成长

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

客服 返回
顶部