# Create tensors. x = torch.tensor(1., requires_grad=True) w = torch.tensor(2., requires_grad=True) b = torch.tensor(3., requires_grad=True) # Build a computational graph. y = w * x + b # y = 2 * x + 3 # Compute gradients. y.backward() # Print out the gradients. print(x.grad) # x.grad = 2 print(w.grad) # w.grad = 1 print(b.grad) # b.grad = 1
时间: 2023-06-27 07:08:18 浏览: 130
03PyTorch入门-new.pptx
这段代码使用 PyTorch 创建了三个张量 x、w 和 b,并将它们的 `requires_grad` 属性设置为 True,以便计算梯度。然后,使用这些张量构建了一个计算图,其中 y 是 x 和 w 的乘积加上 b。接下来,使用 `y.backward()` 计算了 y 对每个需要梯度的张量的梯度。最后,使用 `print()` 打印了每个张量的梯度值。在这个例子中,x 的梯度值是 2,w 和 b 的梯度值都是 1。这是因为 y 对 w 和 b 的梯度都是 1,而 y 对 x 的梯度是 w,即 2。
阅读全文