retain_graph=True。如何设置
时间: 2023-06-26 11:08:31 浏览: 45
如果您想在反向传播(backpropagation)中计算多个梯度(gradients),则应将retain_graph参数设置为True。您可以通过以下代码将其设置为True:
```python
loss.backward(retain_graph=True)
```
需要注意的是,retain_graph=True可以在内存消耗方面造成严重负担,因此应当避免滥用。在计算完所有需要的梯度后,应将其设置为False以释放内存。