optimizer的参数都有什么
时间: 2024-06-01 10:12:24 浏览: 136
Optimizer Optimizer
optimizer的参数取决于所使用的优化算法,不同的优化算法具有不同的参数。以下是常见的优化算法及其常用参数:
1. 梯度下降法(Gradient Descent):学习率(learning rate)
2. 随机梯度下降法(Stochastic Gradient Descent):学习率(learning rate)
3. 批量梯度下降法(Batch Gradient Descent):学习率(learning rate)
4. 动量法(Momentum):学习率(learning rate)、动量系数(momentum)
5. AdaGrad:学习率(learning rate)
6. RMSprop:学习率(learning rate)、衰减系数(decay rate)
7. Adam:学习率(learning rate)、β1、β2(分别控制一阶和二阶动量的衰减系数)
8. Adadelta:衰减系数(decay rate)
9. AdagradDA:学习率(learning rate)、衰减系数(decay rate)
10. Nadam:学习率(learning rate)、β1、β2(分别控制一阶和二阶动量的衰减系数)
11. AMSGrad:学习率(learning rate)、β1、β2(分别控制一阶和二阶动量的衰减系数)
阅读全文