机器学习入门:吴恩达课程笔记——线性回归与梯度下降

需积分: 35 13 下载量 186 浏览量 更新于2024-07-09 收藏 25.86MB PDF 举报
"这篇机器学习笔记总结主要涵盖了吴恩达教授的课程内容,重点在于机器学习中的线性回归和梯度下降算法。" 在机器学习领域,线性回归是一种基本的预测模型,常用于建立输入特征(如房屋大小)与输出目标(如房屋价格)之间的关系。线性回归通过一个假设函数来描述这种关系,通常形式为 `P = θ0 + θ1*x`,其中 `P` 是预测的价格,`θ0` 是截距项,`θ1` 是斜率,而 `x` 是房屋的大小。 代价函数(Cost Function)在机器学习中起到衡量模型预测效果的作用。在本例中,使用的是平方差代价函数,公式为 `J(θ) = (1/2m) * Σ(hθ(x_i) - y_i)^2`,其中 `m` 是样本数量,`hθ(x)` 是模型预测值,`y` 是实际值。这个函数的目的是最小化所有样本预测值与真实值之间差异的平方和。 为了找到使代价函数最小的参数 `θ`,我们引入了梯度下降算法。梯度下降是一种优化方法,通过迭代更新参数来减小代价函数。算法的基本步骤是:首先随机初始化 `θ`,然后按照负梯度方向更新 `θ`,负梯度指向函数增加最快的方向,因此我们沿着它反方向移动可以逐渐降低函数值。梯度下降的更新公式为 `θ = θ - α * ∇J(θ)`,其中 `α` 是学习速率,控制每次更新的步伐大小。 在二维空间中,如果代价函数是凸的(如线性回归的平方差代价函数),梯度下降法保证能找到全局最优解,而不是局部最优解。在多维情况下,代价函数可能形成复杂的地形,但线性回归的代价函数依然具有全局最优解的特性。 对于学习速率的选择,如果太小,算法会进展缓慢;如果太大,可能会导致算法在最优解附近震荡或错过最优解。因此,学习速率的选取是一个需要谨慎平衡的过程。 总结来说,这篇笔记涵盖了机器学习入门中的关键概念——线性回归的假设函数、平方差代价函数以及梯度下降优化算法,这些都是构建和训练简单预测模型的基础。通过理解这些概念,我们可以开始解决类似房价预测这样的问题,并逐步深入到更复杂的机器学习模型。