SVM:最大分隔平面 用支持向量机分类器做二分类,画出最大分类间隔平面,核参数选择linear kernel
时间: 2024-06-09 14:07:11 浏览: 130
好的,我来给你讲一下如何使用支持向量机分类器画出最大分类间隔平面。
首先,我们需要导入必要的库。在这里,我们将使用scikit-learn库。
``` python
from sklearn.svm import SVC
import numpy as np
import matplotlib.pyplot as plt
```
接下来,我们需要创建一些数据来训练我们的支持向量机。在这里,我们将使用numpy库生成一些随机数据。
``` python
# 随机生成数据
np.random.seed(0)
X = np.random.randn(200, 2)
y = np.array([0] * 100 + [1] * 100)
```
然后,我们可以使用SVC类来创建一个支持向量机分类器。我们将使用线性核函数,即“linear”,来训练分类器。
``` python
# 创建支持向量机分类器
clf = SVC(kernel='linear', C=1)
clf.fit(X, y)
```
现在,我们可以使用训练好的分类器来预测新数据,并画出最大分类间隔平面。
``` python
# 画出最大分类间隔平面
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Paired)
ax = plt.gca()
xlim = ax.get_xlim()
ylim = ax.get_ylim()
# 创建网格来绘制决策边界
xx = np.linspace(xlim[0], xlim[1], 30)
yy = np.linspace(ylim[0], ylim[1], 30)
YY, XX = np.meshgrid(yy, xx)
xy = np.vstack([XX.ravel(), YY.ravel()]).T
Z = clf.decision_function(xy).reshape(XX.shape)
# 画出决策边界和支持向量
ax.contour(XX, YY, Z, colors='k', levels=[-1, 0, 1], alpha=0.5,
linestyles=['--', '-', '--'])
ax.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1], s=100,
linewidth=1, facecolors='none', edgecolors='k')
plt.show()
```
这将画出一个包含最大分类间隔平面和支持向量的散点图,如下所示:
![svm_linear_kernel](https://img-blog.csdnimg.cn/20211015150904467.png)
这就是使用支持向量机分类器画出最大分类间隔平面的方法。
阅读全文