给我一个逻辑回归算法的例题,要求对三个二维的向量进行分类
时间: 2024-04-06 15:31:03 浏览: 19
好的,假设我们有三个二维的向量 $x_1 = (1, 2), x_2 = (2, 3), x_3 = (3, 4)$,并且它们分别属于两个类别 $y_1 = 0, y_2 = 1, y_3 = 0$。现在我们使用逻辑回归算法对这三个向量进行分类。
首先,我们需要对每个向量进行特征提取。假设我们使用两个特征 $x_1$ 和 $x_2$,则向量 $x_1$ 的特征向量为 $[1, 2]$,向量 $x_2$ 的特征向量为 $[2, 3]$,向量 $x_3$ 的特征向量为 $[3, 4]$。
然后,我们需要对特征进行加权求和,得到一个分数 $z$。假设我们使用如下的权重向量 $w = [w_0, w_1, w_2]$:
$$w = [-1, 2, 1]$$
则向量 $x_1$ 的分数为:
$$z_1 = w_0 + w_1 x_{1,1} + w_2 x_{1,2} = -1 + 2 \times 1 + 1 \times 2 = 3$$
向量 $x_2$ 的分数为:
$$z_2 = w_0 + w_1 x_{2,1} + w_2 x_{2,2} = -1 + 2 \times 2 + 1 \times 3 = 4$$
向量 $x_3$ 的分数为:
$$z_3 = w_0 + w_1 x_{3,1} + w_2 x_{3,2} = -1 + 2 \times 3 + 1 \times 4 = 8$$
接下来,我们需要将分数 $z$ 映射到[0,1]之间,表示属于第一个类别的概率。这里我们使用sigmoid函数:
$$h(z) = \frac{1}{1 + e^{-z}}$$
则向量 $x_1$ 属于第一个类别的概率为:
$$p_1 = h(z_1) = \frac{1}{1 + e^{-3}} = 0.9526$$
向量 $x_2$ 属于第一个类别的概率为:
$$p_2 = h(z_2) = \frac{1}{1 + e^{-4}} = 0.9820$$
向量 $x_3$ 属于第一个类别的概率为:
$$p_3 = h(z_3) = \frac{1}{1 + e^{-8}} = 0.9997$$
最后,我们根据概率大小将每个向量分到不同的类别中。如果概率大于0.5,则预测为第一个类别,否则预测为第二个类别。
因此,向量 $x_1$ 预测为第二个类别,向量 $x_2$ 预测为第一个类别,向量 $x_3$ 预测为第一个类别。