torch.sqrt()
时间: 2023-10-15 20:25:33 浏览: 39
torch.sqrt()是一个计算平方根的函数,而torch.abs()是一个计算绝对值的函数。它们的区别在于它们对输入的处理方式不同。torch.sqrt()会先对输入进行平方,然后再计算平方根,而torch.abs()则直接计算输入的绝对值。这个区别在计算梯度时是有影响的。在引用中的实验中可以看到,当使用torch.sqrt()时,计算得到的梯度是正确的,而当使用torch.abs()时,计算得到的梯度并不正确。这可能是因为在计算平方根时,梯度的传播路径更明确,而在计算绝对值时,梯度的传播路径可能更复杂,导致了性能的差异。所以在模型训练中,选择使用torch.sqrt()可能会比torch.abs()更好。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [pytorch 中 torch.sqrt 的坑](https://blog.csdn.net/ONE_SIX_MIX/article/details/90322472)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *2* *3* [torch.sqrt(lhs**2) 与torch.abs(lhs)在pytorch中的差异](https://blog.csdn.net/ruichuang2/article/details/126350479)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]