xgboost回归预测代码
时间: 2023-08-13 22:01:16 浏览: 106
xgboost是一种强大的机器学习算法,常用于进行回归预测。以下是一个简单的xgboost回归预测代码示例:
首先,需要导入必要的库:
```
import xgboost as xgb
import numpy as np
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import train_test_split
```
然后,加载数据集并进行数据准备:
```
# 加载数据集
dataset = np.loadtxt('data.csv', delimiter=',')
# 划分特征和标签
X = dataset[:, 0:4]
y = dataset[:, 4]
```
接下来,将数据集划分为训练集和测试集:
```
# 将数据集划分为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
```
然后,配置xgboost回归模型的参数:
```
# 配置模型参数
params = {
'max_depth': 3,
'eta': 0.1,
'objective': 'reg:squarederror',
'eval_metric': 'rmse'
}
```
接下来,对训练集进行训练并预测测试集:
```
# 将数据转换为DMatrix格式
dtrain = xgb.DMatrix(X_train, label=y_train)
dtest = xgb.DMatrix(X_test)
# 训练模型
model = xgb.train(params, dtrain)
# 预测测试集
y_pred = model.predict(dtest)
```
最后,计算模型的均方根误差(RMSE)来评估回归预测的准确性:
```
# 计算均方根误差
rmse = np.sqrt(mean_squared_error(y_test, y_pred))
print("RMSE:", rmse)
```
这就是一个简单的xgboost回归预测代码的示例。根据实际需求,你可以根据数据集和模型的参数进行相应的调整和优化。
阅读全文