torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 128.00 MiB (GPU 0; 11.77 GiB total capacity; 10.65 GiB already allocated; 91.69 MiB free; 10.65 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
时间: 2023-11-06 18:58:28 浏览: 96
这个错误提示是由于你的显存不足,导致无法分配足够的显存空间。可能的解决方法是:
1. 减少模型的参数量或者减小 batch size。
2. 尝试释放已经占用的显存,可以使用 `torch.cuda.empty_cache()` 方法来释放显存。
3. 如果你的模型需要较大的显存,可以考虑使用更高显存的显卡或者使用分布式训练。
4. 尝试设置 PyTorch 的一些显存管理参数,如设置 `max_split_size_mb` 来避免内存碎片化。具体方法可以查看 PyTorch 的文档。
相关问题
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 128.00 MiB. GPU
这个错误提示表明在使用CUDA运算时,GPU的显存不足,无法分配128MB的显存。通常情况下,我们可以通过以下几种方式来解决这个问题:
1. 减少批次大小:可以减少每次训练的批次大小来降低显存使用量。
2. 减少模型参数:可以尝试减少模型的参数量或者使用更小的模型。
3. 释放不必要的显存:可以在每个batch结束后手动释放不必要的显存,比如清空一些变量或者删除一些无用的计算图节点。
4. 使用更高内存的GPU:如果你的GPU显存过小,可以尝试使用显存更大的GPU来避免内存不足。
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 148.00 MiB (GPU 0; 4.00 GiB total capacity; 5.23 GiB already allocated;
torch.cuda.OutOfMemoryError是指在使用PyTorch时,尝试在CUDA显存中分配内存时出现错误,因为显存已经被其他操作占用完毕。其中引用和引用提到了相同的错误信息和可能的解决方法。根据这些引用内容,可以推测解决此错误的方法是通过设置max_split_size_mb参数来避免内存碎片化。你可以参考PyTorch的Memory Management和PYTORCH_CUDA_ALLOC_CONF文档了解更多的信息。引用也提到了类似的错误信息,但给出了不同的显存容量和已分配内存的数值。这说明出现该错误的具体原因可能因系统配置不同而有所不同。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* [成功解决torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 86.00 MiB (GPU 0; 2.00 ...](https://blog.csdn.net/qq_41185868/article/details/131015210)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"]
- *3* [报错记录torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 90.00 MiB (GPU 0; 7.93 ...](https://blog.csdn.net/gongkeguo/article/details/127674524)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]