优化上述代码实现用gpu训练
时间: 2024-05-14 19:15:59 浏览: 66
要在GPU上训练模型,我们需要将模型和数据移动到GPU上。我们可以使用PyTorch提供的`.to()`方法来实现。我们还需要在训练循环中使用GPU计算。下面是代码示例:
```python
import torch
# 将模型和数据移动到GPU上
model = model.to('cuda')
data = data.to('cuda')
# 定义优化器和损失函数
optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)
criterion = nn.CrossEntropyLoss()
# 训练循环
for epoch in range(num_epochs):
for i, (inputs, labels) in enumerate(train_loader):
# 将数据移动到GPU上
inputs = inputs.to('cuda')
labels = labels.to('cuda')
# 前向传播
outputs = model(inputs)
loss = criterion(outputs, labels)
# 反向传播和优化
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 输出训练信息
if (i+1) % 100 == 0:
print('Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, i+1, total_step, loss.item()))
```
这样就可以在GPU上训练模型了。需要注意的是,如果你的GPU内存不够,可能需要调整batch size或者使用更小的模型。