CUDA out of memory. Tried to allocate 2.00 MiB (GPU 0; 8.00 GiB total capacity; 6.47 GiB already allocated; 0 bytes free; 7.32 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF 0%|
时间: 2023-11-06 07:58:09 浏览: 239
pytorch模型提示超出内存RuntimeError: CUDA out of memory.
5星 · 资源好评率100%
这个错误是由于你的程序在GPU上分配的内存已经超过了GPU的容量,导致CUDA out of memory。可能原因是你的模型或者数据集太大了,或者是你的GPU内存不足。你可以尝试减小模型的大小,或者使用更大的GPU。你还可以尝试调整PyTorch的内存管理配置,比如设置max_split_size_mb参数来避免内存碎片化。具体的方法可以参考PyTorch的内存管理文档和PYTORCH_CUDA_ALLOC_CONF的说明。
阅读全文