查看当前电脑的gpu以及是否被使用
时间: 2024-03-01 16:50:14 浏览: 246
可以使用 PyTorch 中的 `torch.cuda` 模块来查看当前电脑的 GPU 信息,并查看 GPU 是否被使用。
以下是几个常用的函数:
1. `torch.cuda.is_available()`:返回一个布尔值,表示当前电脑是否有可用的 GPU 设备。
2. `torch.cuda.device_count()`:返回当前电脑上的 GPU 设备数量。
3. `torch.cuda.get_device_name(device)`:返回指定设备索引 `device` 的名称。
4. `torch.cuda.current_device()`:返回当前正在使用的 GPU 设备索引。
5. `torch.cuda.memory_allocated(device=None)`:返回当前 GPU 上已经分配的内存大小,单位为字节。
6. `torch.cuda.memory_cached(device=None)`:返回当前 GPU 上缓存的内存大小,单位为字节。
以下是一个简单的示例代码,可以查看当前电脑的 GPU 信息和是否被使用:
```
import torch
if torch.cuda.is_available():
print("GPU is available.")
print(f"Number of GPUs: {torch.cuda.device_count()}")
for i in range(torch.cuda.device_count()):
print(f"GPU {i}: {torch.cuda.get_device_name(i)}")
print(f"Current GPU: {torch.cuda.current_device()}")
print(f"Memory allocated: {torch.cuda.memory_allocated() / 1024**2:.2f} MB")
print(f"Memory cached: {torch.cuda.memory_cached() / 1024**2:.2f} MB")
else:
print("GPU is not available.")
```
如果输出结果中的 `Memory allocated` 和 `Memory cached` 不为 0,则表示 GPU 正在被使用。
阅读全文