逻辑回归极大似然估计推导
时间: 2023-11-06 13:50:49 浏览: 142
极大似然估计法
逻辑回归的极大似然估计是通过最大化数据的似然函数来估计模型参数。假设我们有一个二分类问题,目标是根据输入特征预测两个类别之一的概率。
假设我们有 m 个训练样本,每个样本的输入特征为 x,输出为 y,其中 y 取值为 0 或 1。我们可以使用 sigmoid 函数来建模预测的概率:
$$
h_{\theta}(x) = \frac{1}{1 + e^{-\theta^T x}}
$$
其中,$\theta$ 是模型的参数向量。
我们可以将分类问题的似然函数定义为:
$$
L(\theta) = \prod_{i=1}^{m} (h_{\theta}(x^{(i)}))^{y^{(i)}} (1 - h_{\theta}(x^{(i)}))^{1-y^{(i)}}
$$
为了方便计算,我们通常取对数似然函数(log-likelihood):
$$
l(\theta) = \log(L(\theta)) = \sum_{i=1}^{m} [y^{(i)} \log(h_{\theta}(x^{(i)})) + (1-y^{(i)}) \log(1 - h_{\theta}(x^{(i)}))]
$$
我们的目标是找到使得 $l(\theta)$ 最大化的参数 $\theta$。为了实现这一点,我们可以使用梯度上升算法或其他优化算法来最大化对数似然函数。
希望以上推导对你有所帮助!如果你还有其他问题,欢迎继续提问。
阅读全文