如何测试pytorch使用的是GPU
时间: 2024-10-22 20:13:33 浏览: 27
pytorch使用指定GPU训练的实例
在PyTorch中,你可以通过简单的操作来检查模型是否正在利用GPU运行。以下是几个步骤:
1. 首先,确保你的系统上安装了支持CUDA的NVIDIA GPU,并且已经成功安装了PyTorch及其cuDNN版本。
2. 导入`torch`库,并确认`cuda.is_available()`函数返回True,这表示有可用的GPU资源:
```python
import torch
print(torch.cuda.is_available())
```
3. 如果你想查看当前设备信息,包括CPU和GPU,可以使用`torch.cuda.get_device_name()`或`torch.cuda.current_device()`:
```python
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(f"CUDA available: {device.type}")
print(f"Current CUDA device: {torch.cuda.current_device()}")
```
4. 创建张量并指定它应该在GPU上运行:
```python
tensor = torch.randn(5, 5).to(device)
```
如果创建的张量位于GPU上,`tensor.device`将返回`cuda:0`等类似字符串。
如果你的代码在GPU上运行,但是上述操作返回False或没有使用到GPU,可能是由于设置、环境变量等原因导致。
阅读全文