分析以下代码#!/usr/bin/python # -*- coding:utf-8 -*- import numpy as np import pandas as pd import matplotlib as mpl import matplotlib.pyplot as plt from sklearn import svm from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score # 'sepal length', 'sepal width', 'petal length', 'petal width' iris_feature = u'花萼长度', u'花萼宽度', u'花瓣长度', u'花瓣宽度' if __name__ == "__main__": path = 'D:\\iris.data' # 数据文件路径 data = pd.read_csv(path, header=None) x, y = data[range(4)], data[4] y = pd.Categorical(y).codes x = x[[0, 1]] x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=1, train_size=0.6) # 分类器 clf = svm.SVC(C=0.1, kernel='linear', decision_function_shape='ovr') # clf = svm.SVC(C=0.8, kernel='rbf', gamma=20, decision_function_shape='ovr') clf.fit(x_train, y_train.ravel()) # 准确率 print (clf.score(x_train, y_train)) # 精度 print ('训练集准确率:', accuracy_score(y_train, clf.predict(x_train))) print (clf.score(x_test, y_test)) print ('测试集准确率:', accuracy_score(y_test, clf.predict(x_test))) # decision_function print ('decision_function:\n', clf.decision_function(x_train)) print ('\npredict:\n', clf.predict(x_train)) # 画图 x1_min, x2_min = x.min() x1_max, x2_max = x.max() x1, x2 = np.mgrid[x1_min:x1_max:500j, x2_min:x2_max:500j] # 生成网格采样点 grid_test = np.stack((x1.flat, x2.flat), axis=1) # 测试点 # print 'grid_test = \n', grid_test # Z = clf.decision_function(grid_test) # 样本到决策面的距离 # print Z grid_hat = clf.predict(grid_test) # 预测分类值 grid_hat = grid_hat.reshape(x1.shape) # 使之与输入的形状相同 mpl.rcParams['font.sans-serif'] = [u'SimHei'] mpl.rcParams['axes.unicode_minus'] = False cm_light = mpl.colors.ListedColormap(['#A0FFA0', '#FFA0A0', '#A0A0FF']) cm_dark = mpl.colors.ListedColormap(['g', 'r', 'b']) plt.figure(facecolor='w') plt.pcolormesh(x1, x2, grid_hat, shading='auto', cmap=cm_light) plt.scatter(x[0], x[1], c=y, edgecolors='k', s=50, cmap=cm_dark) # 样本 plt.scatter(x_test[0], x_test[1], s=120, facecolors='none', zorder=10) # 圈中测试集样本 plt.xlabel(iris_feature[0], fontsize=13) plt.ylabel(iris_feature[1], fontsize=13) plt.xlim(x1_min, x1_max) plt.ylim(x2_min, x2_max) plt.title(u'鸢尾花SVM二特征分类', fontsize=16) plt.grid(b=True, ls=':') plt.tight_layout(pad=1.5) plt.show()
时间: 2024-04-26 11:22:51 浏览: 182
USR-WIFI232-X-V4
这段代码是使用 SVM(支持向量机)算法对鸢尾花数据集进行分类,并且使用 matplotlib 库对分类结果进行可视化。代码的主要流程如下:
1. 导入必要的库,包括 numpy、pandas、matplotlib、sklearn 中的 svm、train_test_split 和 accuracy_score。
2. 读取鸢尾花数据集,将前四列作为特征值 x,将最后一列作为目标值 y,并将 y 转换为数字编码。
3. 选取前两个特征值作为二维平面上的坐标,将数据集划分为训练集和测试集。
4. 使用 svm.SVC() 函数创建支持向量机分类器,并使用训练集对其进行训练。
5. 计算训练集和测试集的准确率,并输出结果。
6. 使用 predict() 函数对训练集进行预测,并输出 decision_function() 函数计算出的样本到决策面的距离。
7. 使用 meshgrid() 函数生成二维网格采样点,并使用 predict() 函数对每个采样点进行分类预测,将预测结果可视化出来。
8. 可视化结果包括训练集和测试集的样本点、分类边界和测试集的样本点所在的圆圈。
9. 最后使用 show() 函数显示可视化结果。
阅读全文