吴恩达斯坦福机器学习笔记:Logistic回归解析

需积分: 9 2 下载量 75 浏览量 更新于2024-09-08 收藏 639KB PDF 举报
"斯坦福大学机器学习笔记,主要涵盖Logistic回归、感知器算法、牛顿法、GLM、指数函数家族和Softmax回归,基于吴恩达的课程内容。" 本文将深入探讨Logistic回归这一重要的机器学习概念,它是二分类问题的常用方法。Logistic回归虽然名字中有“回归”,但实际上它是一种分类算法,因为它预测的是离散的结果,即0或1。Logistic回归的核心在于Sigmoid函数,也称为逻辑函数,其数学表达式为: \[ g(x) = \frac{1}{1 + e^{-x}} \] Sigmoid函数在x=0时取值0.5,并随着x的增加,其值趋近于1;相反,随着x的减小,其值趋近于0。这种特性使得Sigmoid函数非常适合作为二分类问题的激活函数,因为它将实数值映射到(0,1)区间,代表了属于某一类的概率。 为了建立Logistic回归模型,我们需要找到最佳的参数向量θ,使得模型能够最好地拟合数据。这通常通过最大化似然函数来实现。对于给定的数据集,假设每个样本是独立的,似然函数可以表示为所有样本的乘积。在二分类问题中,似然函数可以写作: \[ L(\theta) = \prod_{i=1}^{m} p(y^{(i)}|x^{(i)},\theta)^{y^{(i)}} (1 - p(y^{(i)}|x^{(i)},\theta))^{1-y^{(i)}} \] 其中,\( p(y^{(i)}|x^{(i)},\theta) \) 是第i个样本属于正类别的概率,由Sigmoid函数给出。为了优化这个似然函数,通常采用对数似然函数,因为它在数值计算上更稳定: \[ l(\theta) = \sum_{i=1}^{m} [y^{(i)} \log(p(y^{(i)}|x^{(i)},\theta)) + (1 - y^{(i)}) \log(1 - p(y^{(i)}|x^{(i)},\theta))] \] 然后,通过梯度下降或牛顿法等优化算法,我们可以找到使对数似然函数最大化的θ值,从而得到最佳的分类模型。 此外,Logistic回归还可以扩展到多分类问题,例如Softmax回归,它在多分类问题中扮演了类似的角色。Softmax函数是Sigmoid函数的多分类版本,将每个类别的得分转化为对应概率,确保所有类别的概率和为1。 除了Logistic回归,吴恩达的机器学习课程还涵盖了感知器算法,这是一个简单的线性分类器,用于解决二分类问题。感知器算法的学习过程是迭代的,直到所有样本都被正确分类或者达到预设的迭代次数。 GLM(广义线性模型)是Logistic回归的推广,它允许因变量与线性预测函数之间的关系属于指数函数族。这使得GLM可以处理各种类型的响应变量,包括连续、计数和二元数据。 牛顿法是一种优化算法,用于找到函数的局部极小值。在机器学习中,它常被用来求解参数的最优化问题,特别是在求解复杂函数的最小化问题时,牛顿法通常比梯度下降法更快。 这些知识点构成了机器学习的基础,是理解现代人工智能技术不可或缺的部分。通过学习这些内容,我们可以构建和理解用于分类和预测的复杂模型,为实际问题提供解决方案。