x_new = torch.clamp(x + dx, 0, width - 1).long()代码中.long()导致tensor的grad_fn属性消失该怎么办
时间: 2023-06-07 11:09:20 浏览: 182
torch_sparse-0.6.17+pt113cpu-cp37-cp37m-linux_x86_64.whl.zip
如果您想保留tensor的grad_fn属性,可以使用 detach() 方法或者 requires_grad=False 进行分离。例如:x_new = torch.clamp(x + dx, 0, width - 1).long().detach() 或者 x_new = torch.clamp(x + dx, 0, width - 1).long().requires_grad_(False)。这样修改后,x_new 的 grad_fn 属性就会被保留。
阅读全文