g, cost = batch_gradientDescent(X, y, w, alpha, iters) print(g)computeCost(X, y, g)
时间: 2024-05-20 14:11:14 浏览: 61
gradient-descent-wikipedia_gradientdescent_descent_
这段代码实现了一个批量梯度下降算法来更新模型的权重向量 w,并返回更新后的权重向量和每次迭代的损失函数值。
其中,X 是输入特征矩阵,y 是目标变量向量,w 是权重向量,alpha 是学习率,iters 是迭代次数。
batch_gradientDescent 函数实现了批量梯度下降算法,返回更新后的权重向量 g 和每次迭代的损失函数值 cost。
computeCost 函数计算当前权重向量 g 下的损失函数值。
阅读全文