pytorch使用gpu训练
时间: 2023-09-25 09:16:28 浏览: 138
在 PyTorch 中,使用 GPU 进行训练非常简单。首先,确保你已经安装了适当版本的 CUDA 和 cuDNN(如果你使用 NVIDIA GPU)。然后,在定义模型和加载数据后,将模型和数据移动到 GPU 上就可以了。
以下是一个例子:
```python
import torch
# 定义模型
model = MyModel()
# 将模型移动到 GPU 上
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)
# 加载数据
train_loader = DataLoader(train_dataset, batch_size=32)
# 训练模型
for epoch in range(num_epochs):
for inputs, labels in train_loader:
# 将数据移动到 GPU 上
inputs, labels = inputs.to(device), labels.to(device)
# 前向传播
outputs = model(inputs)
# 计算损失
loss = loss_fn(outputs, labels)
# 反向传播
optimizer.zero_grad()
loss.backward()
optimizer.step()
```
在这个例子中,我们首先定义了模型 `MyModel`,然后将它移动到 GPU 上。接下来,我们加载数据并在训练循环中使用它。在每个批次中,我们将输入数据和标签移动到 GPU 上,进行前向传播、计算损失和反向传播。
总之,使用 PyTorch 进行 GPU 训练非常简单,只需要将模型和数据移动到 GPU 上即可。
阅读全文