memory_allocated
时间: 2023-08-19 18:05:31 浏览: 207
引用和中提到了关于PyTorch中GPU显存的使用情况。在PyTorch中,后向传播会消耗并释放掉模型中间激活值,并为每个模型参数计算对应的梯度。在第一次执行后向传播时,会为模型参数分配用于存储梯度的空间。而对于GPU显存的使用情况,可以使用torch.cuda.memory_allocated()函数来查看特定设备上tensors当前所占用的GPU显存,而torch.cuda.max_memory_allocated()函数可以查看特定设备上tensors最大所占用的GPU显存。同样,torch.cuda.memory_cached()函数可以用于查看特定设备上缓存分配器当前所占用的GPU显存,而torch.cuda.max_memory_cached()函数可以查看特定设备上缓存分配器最大所占用的GPU显存。此外,可以使用torch.cuda.empty_cache()函数来释放所有未使用的缓存的内存,以便其他GPU应用程序可以使用。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* [PyTorch显存机制分析](https://blog.csdn.net/qq_38735017/article/details/126273093)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"]
- *3* [pytorch GPU内存管理](https://blog.csdn.net/weixin_48759194/article/details/122336402)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]
阅读全文