optimizer.zero_grad
时间: 2023-04-26 07:00:17 浏览: 128
PyTorch中model.zero_grad()和optimizer.zero_grad()用法
optimizer.zero_grad() 是 PyTorch 中的一个函数,用于清零优化器中所有参数的梯度。在训练神经网络的过程中,通常在每个训练步之前调用这个函数。这是因为,在反向传播计算梯度之前,需要将之前计算的梯度清零,以免对当前计算造成影响。
阅读全文
PyTorch中model.zero_grad()和optimizer.zero_grad()用法