比较SGD, Adam, Adagrad优化器用什么模型
时间: 2023-02-17 10:04:00 浏览: 157
一个框架看懂优化算法之异同 SGD_AdaGrad_Adam - 知乎1
SGD,Adam和Adagrad是三种常用的优化器,用于训练神经网络模型。
- SGD(随机梯度下降)通常用于线性回归和逻辑回归等简单模型中。
- Adam是一种自适应学习率优化器,适用于各种模型。
- Adagrad也是一种自适应学习率优化器,适用于稀疏数据和高维度模型中。
阅读全文
一个框架看懂优化算法之异同 SGD_AdaGrad_Adam - 知乎1