KNN决策树和传统决策树怎么用python实现
时间: 2024-05-30 16:06:30 浏览: 174
使用Python实现决策树
4星 · 用户满意度95%
KNN(K-Nearest Neighbors)是一种基于实例的学习方法,通常用于分类和回归问题。其基本思想是通过找到与待分类样本最近的K个样本,来确定该样本所属的类别或预测其属性值。在Python中,可以使用scikit-learn库中的KNeighborsClassifier类来实现KNN分类器。以下是一个简单的例子:
```python
from sklearn.neighbors import KNeighborsClassifier
from sklearn.datasets import load_iris
# 加载数据集
iris = load_iris()
X, y = iris.data, iris.target
# 训练模型
knn = KNeighborsClassifier(n_neighbors=3)
knn.fit(X, y)
# 预测新样本
new_sample = [[5.0, 3.5, 1.4, 0.2]]
prediction = knn.predict(new_sample)
print(prediction)
```
传统决策树是一种基于树结构的分类和回归方法,其基本思想是通过递归地将数据集分成更小的子集,直到所有的数据都属于同一类别或属性值。在Python中,可以使用scikit-learn库中的DecisionTreeClassifier类来实现传统决策树分类器。以下是一个简单的例子:
```python
from sklearn.tree import DecisionTreeClassifier
from sklearn.datasets import load_iris
# 加载数据集
iris = load_iris()
X, y = iris.data, iris.target
# 训练模型
dtc = DecisionTreeClassifier(max_depth=2)
dtc.fit(X, y)
# 预测新样本
new_sample = [[5.0, 3.5, 1.4, 0.2]]
prediction = dtc.predict(new_sample)
print(prediction)
```
注意,以上代码仅供参考,实际使用时需要根据具体问题进行调整和优化。
阅读全文