3. 什么是批量梯度下降法?与随机梯度下降法有什么区别?
时间: 2024-06-03 12:11:12 浏览: 92
机器学习-随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient
批量梯度下降法(Batch Gradient Descent)是指每次迭代时,使用所有训练数据来计算梯度并更新模型参数。随机梯度下降法(Stochastic Gradient Descent)是指在每次迭代时,随机选取一个训练样本来计算梯度并更新模型参数。
两种方法的区别在于运算量和收敛速度。批量梯度下降法需要计算所有训练数据的梯度,所以运算量较大,但由于使用了所有数据,每次迭代的梯度方向都是相同的,所以这种方法较为稳定,收敛速度相对较慢。而随机梯度下降法每次只计算一个数据的梯度,所以运算量相对较小,但由于每次选取的数据不同,导致每次的梯度方向可能会产生较大的波动,使得收敛速度不稳定。
阅读全文