逻辑回归极大似然估计的推导
时间: 2023-11-06 16:50:37 浏览: 79
逻辑回归是一种广泛应用于分类问题的机器学习算法,它的基本思想是通过拟合一个逻辑函数来预测样本的类别概率。而逻辑回归中的参数估计常使用极大似然估计。
对于二分类问题,我们假设样本的类别标签为0或1。逻辑回归模型的假设函数可以表示为:
hθ(x) = g(θ^T * x)
其中,hθ(x) 是预测类别为1的概率,g(z) 是逻辑函数(也称为 sigmoid 函数),定义为 g(z) = 1 / (1 + e^(-z))。
我们希望通过最大化似然函数来估计模型参数 θ。假设我们有 m 个训练样本 {(x^(1), y^(1)), (x^(2), y^(2)), ..., (x^(m), y^(m))},其中 x 是输入特征向量,y 是对应的类别标签。
对于单个样本 (x, y),其生成的似然函数为:
L(θ) = hθ(x)^y * (1 - hθ(x))^(1-y)
我们可以将所有样本的似然函数连乘起来,得到整体的似然函数:
L(θ) = Π(hθ(x^(i))^y^(i) * (1 - hθ(x^(i)))^(1-y^(i)))
接下来,我们需要求解使得似然函数最大化的参数 θ。由于连乘的计算不方便,我们通常会取对数似然函数,即对上述似然函数取对数:
l(θ) = log L(θ) = Σ(y^(i)log(hθ(x^(i))) + (1-y^(i))log(1 - hθ(x^(i))))
最大化对数似然函数等价于最小化其负值,即最小化损失函数:
J(θ) = -l(θ) = -Σ(y^(i)log(hθ(x^(i))) + (1-y^(i))log(1 - hθ(x^(i))))
我们可以使用梯度下降等优化算法来最小化损失函数,从而得到最优的参数估计值 θ。
以上是逻辑回归极大似然估计的简要推导过程。在实际应用中,常常使用数值计算库来自动完成参数估计过程。
阅读全文