torch.no_grad()的例子
时间: 2024-05-04 11:15:53 浏览: 104
pytorch_mnist-python源码.zip
5星 · 资源好评率100%
torch.no_grad()是一个上下文管理器,用于在计算梯度时禁用autograd。它适用于那些不需要计算梯度的代码块,可以提高代码的效率和速度。
下面是一个使用torch.no_grad()的例子:
```
import torch
x = torch.tensor([1.0, 2.0], requires_grad=True)
y = torch.tensor([3.0, 4.0], requires_grad=True)
with torch.no_grad():
z = x + y
print(z)
```
在这个例子中,我们使用torch.no_grad()上下文管理器来计算x和y的和,因为我们不需要计算它们的梯度。如果没有使用torch.no_grad(),计算过程中会记录梯度信息,这会降低代码的效率和速度。
希望这个例子能够帮助你理解torch.no_grad()的用法。
阅读全文