requires_grad
时间: 2024-05-10 22:15:50 浏览: 90
Pytorch训练过程中改变模型参数 requires_grad 属性
5星 · 资源好评率100%
`requires_grad` 是 PyTorch 中的一个属性,用于指定一个张量是否需要被计算梯度。当一个张量的 `requires_grad` 属性被设置为 `True` 时,PyTorch 会自动记录它的计算历史,并且在反向传播时计算并保存它的梯度。这是实现自动微分(Autograd)的关键。
默认情况下,新创建的张量的 `requires_grad` 属性为 `False`。可以通过设置 `requires_grad=True` 将其设置为需要计算梯度。例如:
```
import torch
x = torch.randn(2, 3, requires_grad=True)
```
这将创建一个形状为 (2, 3) 的张量 `x`,并将它的 `requires_grad` 属性设置为 `True`。在计算 `x` 的任何函数中,PyTorch 都会自动记录计算历史,并在后面的反向传播中计算并保存它的梯度。
阅读全文