用python写一个XGBoost回归预测模型
时间: 2024-03-18 21:19:40 浏览: 13
好的,以下是一个简单的 XGBoost 回归预测模型的示例代码:
``` python
# 导入必要的库
import pandas as pd
import numpy as np
import xgboost as xgb
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import train_test_split
# 读取数据集
dataset = pd.read_csv('your_dataset.csv')
# 将数据集拆分为特征和目标变量
X = dataset.iloc[:, :-1].values
y = dataset.iloc[:, -1].values
# 将数据集拆分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
# 训练 XGBoost 模型
xg_reg = xgb.XGBRegressor(objective ='reg:squarederror', colsample_bytree = 0.3, learning_rate = 0.1,
max_depth = 5, alpha = 10, n_estimators = 10)
xg_reg.fit(X_train,y_train)
# 对测试集进行预测
preds = xg_reg.predict(X_test)
# 计算均方根误差(RMSE)
rmse = np.sqrt(mean_squared_error(y_test, preds))
print("RMSE: %f" % (rmse))
```
在这个例子中,我们使用了 XGBoost 库来训练一个回归模型。我们首先读取数据集,然后将其拆分为特征和目标变量。接下来,我们将数据集拆分为训练集和测试集,并使用 XGBoost 模型拟合训练集。最后,我们对测试集进行预测,并计算均方根误差(RMSE)来评估模型的性能。