3.什么是批量梯度下降法?与随机梯度下降法有什么区别?
时间: 2024-05-29 15:13:46 浏览: 102
机器学习-随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient
批量梯度下降法和随机梯度下降法都是针对机器学习中损失函数最小化的优化算法。批量梯度下降法是在每次迭代时,使用所有的训练样本来更新模型参数,而随机梯度下降法则是在每次迭代时,仅使用一个样本来更新模型参数。具体地说,批量梯度下降法的计算量相对较大,但收敛速度相对较稳定;而随机梯度下降法的计算量相对较小,但收敛速度相对较快,且可能存在收敛不稳定的情况。另外,还有小批量梯度下降法,在每次迭代时,使用一部分样本来更新模型参数,这种方法既能降低计算量,又能使收敛速度更快。
阅读全文