xgboost回归预测模型代码
时间: 2023-08-13 20:05:41 浏览: 140
xgboost代码
下面是一个使用XGBoost进行回归预测的示例代码:
```
# 导入必要的库
import xgboost as xgb
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
# 加载数据集
data = xgb.DMatrix('path_to_dataset.csv')
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(data.data, data.target, test_size=0.2)
# 设置模型参数
params = {
'objective': 'reg:squarederror', # 设置回归目标函数
'eval_metric': 'rmse', # 评估指标使用均方根误差
'eta': 0.1, # 学习率
'max_depth': 5, # 树的最大深度
'subsample': 0.8, # 样本采样率
'colsample_bytree': 0.8 # 特征采样率
}
# 训练模型
model = xgb.train(params, data, num_boost_round=100)
# 使用模型进行预测
y_pred = model.predict(xgb.DMatrix(X_test))
# 计算均方根误差
rmse = mean_squared_error(y_test, y_pred, squared=False)
print("RMSE:", rmse)
```
在代码中,你需要将`path_to_dataset.csv`替换为你的数据集路径。该代码首先加载数据集,然后使用`train_test_split`函数将数据划分为训练集和测试集。接下来,设置XGBoost模型的参数,例如回归目标函数、评估指标、学习率、树的最大深度等。然后使用`xgb.train`函数训练模型,并使用训练好的模型进行预测。最后,计算预测结果与真实值之间的均方根误差(RMSE)作为模型的评估指标。
阅读全文