Max memory allocated: 0.00 MB
时间: 2023-12-14 17:14:43 浏览: 235
如果你的代码还没有开始使用 CUDA 设备,那么显存占用应该为 0.00 MB。请确保你已经成功地将 PyTorch 的 tensor 数据移动到了 CUDA 设备上。以下是一个示例:
```python
import torch
# 创建一个 tensor
x = torch.randn(2, 3)
# 选择需要使用的 CUDA 设备
device = torch.device('cuda:0')
# 将 tensor 移动到 CUDA 设备上
x = x.to(device)
# 使用 torch.cuda.max_memory_allocated() 查询 CUDA 设备最大显存占用
print('Max memory allocated: {:.2f} MB'.format(torch.cuda.max_memory_allocated(device) / 1024 / 1024))
# 使用 torch.cuda.memory_allocated() 查询当前 CUDA 设备已分配的显存
print('Memory allocated: {:.2f} MB'.format(torch.cuda.memory_allocated(device) / 1024 / 1024))
# 使用 torch.cuda.memory_cached() 查询当前 CUDA 设备缓存的显存
print('Memory cached: {:.2f} MB'.format(torch.cuda.memory_cached(device) / 1024 / 1024))
```
这里创建了一个大小为 2x3 的 tensor,并将其移动到选定的 CUDA 设备上。然后使用 `torch.cuda.max_memory_allocated()`、`torch.cuda.memory_allocated()` 和 `torch.cuda.memory_cached()` 进行查询。
阅读全文