self.optimizer.zero_grad()
时间: 2023-04-23 20:06:21 浏览: 96
PyTorch中model.zero_grad()和optimizer.zero_grad()用法
5星 · 资源好评率100%
self.optimizer.zero_grad() 的意思是将优化器中的梯度清零。在深度学习中,我们通常会使用反向传播算法计算模型的梯度,然后使用优化器来更新模型的参数。在每次更新参数之前,我们需要将优化器中的梯度清零,以避免梯度累加的影响。
阅读全文