给出逻辑回顾 二元分类的基本推导过程
时间: 2024-05-21 17:10:32 浏览: 39
假设有一个二元分类问题,其中样本数据集为 $D=\{(x_1,y_1),(x_2,y_2),\cdots,(x_n,y_n)\}$,其中 $x_i\in R^d$ 为第 $i$ 个样本的特征向量,$y_i\in\{0,1\}$ 为第 $i$ 个样本的类别标记,$0$ 表示负样本,$1$ 表示正样本。
逻辑回归的目标是学习一个分类器,将样本分类到正确的类别中。假设特征向量 $x$ 对应的分类器为 $f(x)$,则我们可以使用 sigmoid 函数将分类器的输出值映射到 $[0,1]$ 的区间内,即:
$$
p(y=1|x)=\frac{1}{1+e^{-f(x)}}
$$
其中 $p(y=1|x)$ 表示在给定特征向量 $x$ 的情况下,样本为正样本的概率。
为了求解分类器的参数,我们需要定义一个损失函数,常用的损失函数是交叉熵损失函数,即:
$$
\mathcal{L}(f)=\sum_{i=1}^n[y_i\log(p_i)+(1-y_i)\log(1-p_i)]
$$
其中 $p_i=p(y=1|x_i)$ 表示在给定特征向量 $x_i$ 的情况下,第 $i$ 个样本为正样本的概率。
我们的目标是最小化损失函数 $\mathcal{L}(f)$,可以使用梯度下降等优化算法求解分类器的参数。具体地,我们需要求解参数向量 $\boldsymbol{w}$ 和偏置项 $b$,使得损失函数 $\mathcal{L}(f)$ 最小化。参数的更新方式可以使用如下公式:
$$
\boldsymbol{w}_{t+1}=\boldsymbol{w}_t-\eta\frac{\partial\mathcal{L}(f)}{\partial\boldsymbol{w}}|_{\boldsymbol{w}=\boldsymbol{w}_t}
$$
$$
b_{t+1}=b_t-\eta\frac{\partial\mathcal{L}(f)}{\partial b}|_{b=b_t}
$$
其中 $\eta$ 表示学习率,$\frac{\partial\mathcal{L}(f)}{\partial\boldsymbol{w}}$ 和 $\frac{\partial\mathcal{L}(f)}{\partial b}$ 分别表示损失函数 $\mathcal{L}(f)$ 对参数向量 $\boldsymbol{w}$ 和偏置项 $b$ 的偏导数。
最后,我们可以使用学习到的分类器进行预测,即对于给定的特征向量 $x$,如果 $p(y=1|x)\geq 0.5$,则预测为正样本,否则预测为负样本。
阅读全文