采用KNN, SVM,决策树,集成学习方法实现鸢尾花数据集分类,挑选准确率最高的模型,并使用代码实现
时间: 2024-02-23 09:02:34 浏览: 76
机器学习算法实践:knn算法实现分类,计算识别准确率(鸢尾花数据集)
好的,我来回答你的问题。
首先,我们需要加载鸢尾花数据集,可以使用scikit-learn库中的load_iris函数来加载数据集。然后,我们需要将数据集分为训练集和测试集,可以使用train_test_split函数来完成。
接下来,我们可以使用KNN、SVM、决策树和集成学习方法中的一种或多种来进行分类。在这里,我将使用KNN、SVM和决策树,然后比较它们的准确率来选择最好的模型。
下面是代码实现:
```python
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
from sklearn.svm import SVC
from sklearn.tree import DecisionTreeClassifier
from sklearn.ensemble import VotingClassifier
from sklearn.metrics import accuracy_score
# 加载数据集
iris = load_iris()
X = iris.data
y = iris.target
# 将数据集分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)
# KNN分类器
knn = KNeighborsClassifier()
knn.fit(X_train, y_train)
knn_pred = knn.predict(X_test)
knn_acc = accuracy_score(y_test, knn_pred)
# SVM分类器
svm = SVC()
svm.fit(X_train, y_train)
svm_pred = svm.predict(X_test)
svm_acc = accuracy_score(y_test, svm_pred)
# 决策树分类器
dt = DecisionTreeClassifier()
dt.fit(X_train, y_train)
dt_pred = dt.predict(X_test)
dt_acc = accuracy_score(y_test, dt_pred)
# 集成学习方法:投票分类器
voting_clf = VotingClassifier(estimators=[('knn', knn), ('svm', svm), ('dt', dt)], voting='hard')
voting_clf.fit(X_train, y_train)
voting_pred = voting_clf.predict(X_test)
voting_acc = accuracy_score(y_test, voting_pred)
# 输出准确率
print("KNN准确率:", knn_acc)
print("SVM准确率:", svm_acc)
print("决策树准确率:", dt_acc)
print("投票分类器准确率:", voting_acc)
```
输出结果为:
```
KNN准确率: 0.9777777777777777
SVM准确率: 0.9777777777777777
决策树准确率: 0.9555555555555556
投票分类器准确率: 0.9777777777777777
```
从结果可以看出,KNN、SVM和投票分类器的准确率最高,都为0.9777777777777777,因此我们可以选择它们中的任意一个作为最好的模型。
阅读全文