RuntimeError: CUDA out of memory. Tried to allocate 32.00 MiB (GPU 0; 4.00 GiB total capacity; 3.40 GiB already allocated; 0 bytes free; 3.47 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF 中GPU 0代表什么意思
时间: 2023-08-14 18:07:40 浏览: 229
解决pytorch GPU 计算过程中出现内存耗尽的问题
5星 · 资源好评率100%
在这个错误信息中,“GPU 0”表示第一个可用的GPU设备。当您的系统中有多个GPU时,每个GPU都会有一个唯一的标识符,其中0表示第一个GPU设备,1表示第二个GPU设备,以此类推。
在您的错误信息中,指出了GPU 0的情况。它显示了该GPU设备的总容量、已分配的内存量、剩余的内存量以及由PyTorch保留的内存量。
具体到您的错误信息中的示例,“GPU 0; 4.00 GiB total capacity”表示该GPU设备的总容量为4.00 GiB。“3.40 GiB already allocated”表示已经分配了3.40 GiB的内存。“0 bytes free”表示没有剩余的内存可供分配。“3.47 GiB reserved in total by PyTorch”表示PyTorch保留了3.47 GiB的内存。
这些信息有助于您了解GPU设备的内存使用情况,并帮助您排查CUDA内存不足的问题。
阅读全文