:采用 scikit-learn 中的线性 SVM 对 iris 数据集进行二分类。 具体内容: (1)选取两个特征和两类数据使用 scikit-learn 中的 SVM 进行二分类。 (2)输出:决策边界的参数和截距、支持向量等。 (3)可视化:通过散点图可视化数据样本(之前选择的两个特征),并画出决策边界和 2 个最 大间隔边界,标出支持向量,用pycharm写,用IPython解释器
时间: 2024-02-23 15:57:05 浏览: 78
好的,我了解了您的问题。首先需要导入必要的库和数据集,代码如下:
```python
import numpy as np
import matplotlib.pyplot as plt
from sklearn import svm, datasets
# 导入数据集
iris = datasets.load_iris()
X = iris.data[:, :2] # 只选择前两个特征
y = iris.target
```
接下来,我们可以使用 `svm.SVC` 类来构建一个线性 SVM 模型,并对 iris 数据集进行二分类。代码如下:
```python
# 构建 SVM 模型
model = svm.SVC(kernel='linear', C=1.0)
model.fit(X, y)
```
其中,`kernel='linear'` 表示使用线性 SVM,`C=1.0` 表示正则化参数的值为 1.0。
得到模型之后,我们可以输出一些信息,如决策边界的参数、截距、支持向量等。代码如下:
```python
# 输出模型信息
print("决策边界的参数:", model.coef_)
print("截距:", model.intercept_)
print("支持向量:", model.support_vectors_)
```
最后,我们可以通过散点图可视化数据样本,并画出决策边界和 2 个最大间隔边界,标出支持向量。代码如下:
```python
# 可视化决策边界和支持向量
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.coolwarm)
plt.xlabel('Sepal length')
plt.ylabel('Sepal width')
# 绘制决策边界
w = model.coef_[0]
a = -w[0] / w[1]
xx = np.linspace(X[:, 0].min() - 1, X[:, 0].max() + 1, 100)
yy = a * xx - (model.intercept_[0]) / w[1]
plt.plot(xx, yy, 'k-')
# 绘制两个最大间隔边界
b = model.support_vectors_[0]
yy_down = a * xx + (b[1] - a * b[0])
b = model.support_vectors_[-1]
yy_up = a * xx + (b[1] - a * b[0])
plt.plot(xx, yy_down, 'k--')
plt.plot(xx, yy_up, 'k--')
# 标出支持向量
plt.scatter(model.support_vectors_[:, 0], model.support_vectors_[:, 1], s=80, facecolors='none')
plt.show()
```
运行以上代码,即可得到如下的可视化结果:
![svm_decision_boundary.png](https://img-blog.csdn.net/20180714160729336?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3poYW5naGFv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
阅读全文