机器学习中SGD指什么
时间: 2023-07-14 22:09:49 浏览: 170
Theory of convex optimization for machine learning
SGD代表随机梯度下降(Stochastic Gradient Descent),是机器学习中常用的一种优化算法。它用于在训练模型时,通过最小化损失函数来更新模型参数。与传统的梯度下降算法不同,随机梯度下降每次迭代中只使用一个样本来计算梯度,从而降低了计算成本。虽然每次迭代中的梯度计算存在随机性,但随着迭代次数的增加,随机梯度下降通常能够在较短的时间内收敛到较好的解。
阅读全文