grad_fn是什么意思,举例子详细说明
时间: 2023-04-08 16:00:35 浏览: 192
pytorch .detach() .detach_() 和 .data用于切断反向传播的实现
grad_fn是PyTorch中的一个属性,它记录了一个张量的计算历史,即该张量是如何通过哪些运算得到的。在反向传播时,PyTorch会根据grad_fn来计算梯度。举个例子,假设有两个张量a和b,c=a+b,那么c的grad_fn就是AddBackward,表示c是通过加法运算得到的。当我们调用c.backward()时,PyTorch会根据grad_fn自动计算a和b的梯度。
阅读全文