逻辑回归的阈值和决策边界
时间: 2024-02-04 19:08:03 浏览: 111
python实现梯度下降和逻辑回归
逻辑回归是一种二分类算法,它通过将输入特征与权重相乘并加上偏置项,然后将结果传递给sigmoid函数来预测输出。sigmoid函数将结果映射到0和1之间,表示输出为正类的概率。在逻辑回归中,阈值是用于将概率转换为二进制输出的值。如果概率大于阈值,则输出为1,否则输出为0。决策边界是将特征空间分成两个区域的线或超平面。在逻辑回归中,决策边界是由权重和偏置项确定的。如果输入特征在决策边界的一侧,则输出为1,否则输出为0。
举个例子,假设我们有一个二分类问题,我们想要预测一个人是否会购买某个产品。我们可以使用逻辑回归来预测这个人购买产品的概率。如果我们将阈值设置为0.5,则概率大于0.5的人将被预测为购买产品,概率小于0.5的人将被预测为不购买产品。决策边界是将特征空间分成购买和不购买两个区域的线或超平面。
```python
# 以下是一个简单的逻辑回归示例
from sklearn.linear_model import LogisticRegression
from sklearn.datasets import load_iris
# 加载数据集
iris = load_iris()
X = iris.data[:, :2] # 只使用前两个特征
y = iris.target
# 训练逻辑回归模型
clf = LogisticRegression(random_state=0).fit(X, y)
# 绘制决策边界
import numpy as np
import matplotlib.pyplot as plt
x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5
y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5
xx, yy = np.meshgrid(np.arange(x_min, x_max, .02), np.arange(y_min, y_max, .02))
Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape)
plt.figure(1, figsize=(4, 3))
plt.pcolormesh(xx, yy, Z, cmap=plt.cm.Paired)
# 绘制训练数据
plt.scatter(X[:, 0], X[:, 1], c=y, edgecolors='k', cmap=plt.cm.Paired)
plt.xlabel('Sepal length')
plt.ylabel('Sepal width')
plt.xlim(xx.min(), xx.max())
plt.ylim(yy.min(), yy.max())
plt.xticks(())
plt.yticks(())
plt.show()
```
阅读全文