AdaBoost用朴素贝叶斯分别写一个回归一个分类代码
时间: 2024-02-13 09:02:33 浏览: 70
首先,需要说明一点,AdaBoost主要用于分类问题,而不是回归问题。因此,下面将分别给出使用AdaBoost和朴素贝叶斯进行分类的代码示例。
使用AdaBoost进行分类的代码示例:
```python
from sklearn.ensemble import AdaBoostClassifier
from sklearn.naive_bayes import GaussianNB
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
# 生成分类数据集
X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_classes=2, random_state=42)
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 初始化朴素贝叶斯分类器
gnb = GaussianNB()
# 初始化AdaBoost分类器
clf = AdaBoostClassifier(base_estimator=gnb, n_estimators=50, learning_rate=0.1, random_state=42)
# 训练分类器
clf.fit(X_train, y_train)
# 预测测试集
y_pred = clf.predict(X_test)
# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy: {:.2f}%".format(accuracy*100))
```
使用朴素贝叶斯进行分类的代码示例:
```python
from sklearn.naive_bayes import GaussianNB
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
# 生成分类数据集
X, y = make_classification(n_samples=1000, n_features=10, n_informative=5, n_classes=2, random_state=42)
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 初始化朴素贝叶斯分类器
gnb = GaussianNB()
# 训练分类器
gnb.fit(X_train, y_train)
# 预测测试集
y_pred = gnb.predict(X_test)
# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy: {:.2f}%".format(accuracy*100))
```
需要注意的是,朴素贝叶斯分类器适用于处理多维离散数据或连续数据,而回归问题需要使用其他类型的算法进行处理。
阅读全文