mindspore optimizer.zero_grad()
时间: 2024-04-25 14:23:53 浏览: 218
PyTorch中model.zero_grad()和optimizer.zero_grad()用法
在MindSpore中,没有像PyTorch中的optimizer.zero_grad()方法。在MindSpore中,梯度的计算和清零是由优化器自动处理的,无需手动调用。在训练过程中,你只需要调用optimizer的minimize方法来更新网络参数即可。这个方法会自动计算梯度并更新参数。所以在你的代码中,不需要使用optimizer.zero_grad()方法。
阅读全文