CUDA out of memory. Tried to allocate 64.00 MiB
时间: 2023-10-23 21:30:11 浏览: 41
当你在运行代码时遇到"CUDA out of memory. Tried to allocate 64.00 MiB"的错误,这表示你的GPU显存不足以分配所需的内存。这可能是由于你的代码中使用了太多的显存或者batch size设置过大导致的。
解决这个问题的方法有几种。首先,你可以尝试减小batch size的大小。通过减小每个batch的样本数量,你可以减少GPU所需的显存。这可能会导致训练速度变慢,但可以确保显存不会超出限制。
另外,你还可以使用item()属性来获取torch变量的标量值,而不是直接使用变量本身。使用item()属性可以释放掉不必要的显存。
如果以上方法无效,你可以尝试换一个显存更大的GPU,或者终止正在占用GPU的其他程序。请注意,在终止其他程序时要慎重操作,因为其他程序可能是其他用户正在运行的或者重要的程序。你可以使用命令行中的"nvidia-smi"命令来查看当前正在占用GPU的程序。
总结起来,解决"CUDA out of memory"错误的方法包括减小batch size、使用item()属性来获取标量值以释放显存、更换显存更大的GPU或终止正在占用GPU的其他程序。根据具体情况选择适合的解决方法。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [【报错笔记】pytorch RuntimeError: CUDA out of memory.](https://blog.csdn.net/qq_55407202/article/details/123695015)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"]
- *2* [pytorch模型提示超出内存RuntimeError: CUDA out of memory.](https://download.csdn.net/download/weixin_38552305/14884908)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"]
- *3* [解决:RuntimeError: CUDA out of ... Tried to allocate 64.00 MiB (GPU 0; 4.00 GiB total capacity; 2](https://blog.csdn.net/universe_R/article/details/124551674)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"]
[ .reference_list ]