'SGD' object has no attribute 'Adam'
时间: 2023-10-01 07:06:06 浏览: 145
这个错误提示表明在一个***属性并不存在。这可能是因为你试图使用 'SGD' 优化器的 'Adam' 方法,但是 'SGD' 优化器并没有实现 'Adam' 方法。
要使用 Adam 优化器,你需要使用相应的库(如 TensorFlow 或 PyTorch)中的具有 Adam 功能的优化器对象,并确保正确地使用其方法来进行优化。请检查你的代码并确认你正在使用正确的优化器对象或方法。
相关问题
SGD' object has no attribute 'zero_grad
这个错误提示表明在代码中使用了SGD优化器的zero_grad()方法,但是SGD优化器并没有这个方法。只有继承自torch.optim.Optimizer的优化器才有zero_grad()方法。因此,如果要使用zero_grad()方法,需要使用继承自Optimizer的优化器,例如Adam、Adagrad等。如果要使用SGD优化器,可以使用以下方式清空梯度:
```
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)
optimizer.zero_grad()
```
'SGD' object has no attribute 'defaults'
这个错误通常出现在使用PyTorch时,它表示您正在尝试访问不存在的属性。在这种情况下,您正在尝试访问SGD优化器的默认值属性,但是该属性不存在。
这可能是因为您使用的版本不同,或者您没有正确导入所需的库。您可以尝试更新PyTorch版本或检查您的导入语句是否正确。
另外,您也可以尝试使用其他优化器,比如Adam,看看是否仍然存在这个问题。
阅读全文