决策树在训练集上过拟合
时间: 2023-12-19 10:30:07 浏览: 77
机器学习__决策树过拟合问题.pptx
决策树在训练集上过拟合是一个常见的问题。当决策树的深度特别深时,模型会变得非常复杂,容易出现过拟合问题,导致模型在训练集上表现很好,但在测试集上表现很差。以下是一些解决过拟合问题的方法:
1. 剪枝:剪枝是一种常见的解决过拟合问题的方法。剪枝可以通过限制决策树的深度或者叶子节点中的最小样本数来减少模型的复杂度,从而避免过拟合问题。
2. 正则化:正则化是一种通过添加惩罚项来减少模型复杂度的方法。在决策树中,可以通过添加L1或L2正则化项来减少模型的复杂度,从而避免过拟合问题。
3. 增加数据量:增加数据量是一种有效的减少过拟合问题的方法。通过增加数据量,可以使模型更加泛化,从而避免过拟合问题。
以下是一个决策树剪枝的例子:
```python
from sklearn.tree import DecisionTreeClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
# 加载数据集
iris = load_iris()
X = iris.data
y = iris.target
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
# 构建决策树模型
clf = DecisionTreeClassifier(random_state=42)
# 训练模型
clf.fit(X_train, y_train)
# 输出在训练集上的准确率
print("Training accuracy:", clf.score(X_train, y_train))
# 输出在测试集上的准确率
print("Testing accuracy:", clf.score(X_test, y_test))
# 剪枝
clf = DecisionTreeClassifier(random_state=42, max_depth=3, min_samples_leaf=5)
# 训练剪枝后的模型
clf.fit(X_train, y_train)
# 输出在训练集上的准确率
print("Pruned training accuracy:", clf.score(X_train, y_train))
# 输出在测试集上的准确率
print("Pruned testing accuracy:", clf.score(X_test, y_test))
```
阅读全文