from xgboost import XGBRegressor tuned_parameters = [{ 'max_depth': range(3,10), 'n_estimators': range(100, 600, 100), 'learning_rate':[0.01] },] # 非GPU xgb= GridSearchCV(estimator=XGBRegressor(), param_grid=tuned_parameters, cv=5) # GPU # xgb= GridSearchCV(estimator=XGBRegressor(tree_method='gpu_hist', gpu_id=0), param_grid=tuned_parameters, cv=5) # 也可以换成lgbm,lgbm比xgboost快很多 # xgb= GridSearchCV(estimator=LGBMRegressor(), param_grid=tuned_parameters, cv=5) xgb.fit(XX_train,YY_train) y_xgb= xgb.predict(XX_test) print ('Optimum epsilon and kernel 1D: ', xgb.best_params_) # evaluate predictions mae = mean_absolute_error(YY_test, y_xgb) mape = mean_absolute_percentage_error(YY_test['BOD'], y_xgb) score = xgb.score(XX_test, YY_test) train_score = xgb.score(XX_train, YY_train) print('MAE: %.3f, MAPE: %.3f, R2_tain: %.3f, R2_test: %.3f' % ((mae,mape,train_score,score)))
时间: 2024-04-29 08:21:01 浏览: 133
这段代码是用来进行XGBoost模型的超参数调优的。首先定义了一些参数的取值范围,然后使用GridSearchCV函数来进行网格搜索,通过交叉验证来选择最佳的参数组合。其中,可以选择使用GPU进行计算以提高速度,也可以选择使用LightGBM模型代替XGBoost模型。最后打印出最佳参数组合,并输出模型在测试集上的MAE、MAPE、R2_train和R2_test等指标。
相关问题
from sklearn.ensemble import RandomForestClassifier rf_model = RandomForestClassifier(random_state=42, min_samples_leaf=25) rf_model.fit(X_train , y_train) print(f'Train : {rf_model.score(X_train, y_train)}') model_eval(rf_model,X_test,y_test)cm = confusion_matrix(y_test, y_pred) plt.figure(figsize = (8,8)) sns.heatmap(cm,cmap= "Blues", linecolor = 'black' , linewidth = 1 , annot = True, fmt='' , xticklabels = ['A','B','C','D'] , yticklabels = ['A','B','C','D']) plt.xlabel("Predicted") plt.ylabel("Actual") plt.show()from sklearn.ensemble import RandomForestClassifier rf_model = RandomForestClassifier(random_state=42, min_samples_leaf=25) prams ={ 'n_estimators':[10 ,20,40,50, 70], 'max_depth' : [3 ,5, 7,8, 11, 12],'min_samples_split' : [2, 3, 5, 9] , 'criterion' : ['gini', 'entropy'], 'max_features':['sqrt','log2'] } gd_rf= GridSearchCV(rf_model , param_grid=prams, n_jobs=-1 ,cv=10) gd_rf.fit(X_train , y_train) print(gd_rf.best_estimator_)print(f'Train : {tuned_rf.score(X_train, y_train)}') model_eval(tuned_rf,X_test,y_test) print()解释每行代码
这段代码是一个随机森林分类器的实现,并且进行了参数优化。以下是每行代码的解释:
1. `from sklearn.ensemble import RandomForestClassifier`: 导入随机森林分类器模型。
2. `rf_model = RandomForestClassifier(random_state=42, min_samples_leaf=25)`: 声明随机森林分类器模型,设置了随机数生成器的种子和叶子节点最小样本数。
3. `rf_model.fit(X_train , y_train)`: 使用训练集对模型进行训练。
4. `print(f'Train : {rf_model.score(X_train, y_train)}')`: 输出训练集上的预测准确率。
5. `model_eval(rf_model,X_test,y_test)`: 对测试集进行模型评估,这里的 `model_eval()` 函数没有给出,应该是作者自己写的一个函数。
6. `cm = confusion_matrix(y_test, y_pred)`: 调用 `sklearn.metrics` 库中的 `confusion_matrix()` 函数,计算出混淆矩阵。
7. `plt.figure(figsize = (8,8))`: 创建一个 8x8 的画布。
8. `sns.heatmap(cm,cmap= "Blues", linecolor = 'black' , linewidth = 1 , annot = True, fmt='' , xticklabels = ['A','B','C','D'] , yticklabels = ['A','B','C','D'])`: 调用 `seaborn` 库中的 `heatmap()` 函数,绘制混淆矩阵的热力图。
9. `plt.xlabel("Predicted")`: 设置 x 轴的标签为 “Predicted”。
10. `plt.ylabel("Actual")`: 设置 y 轴的标签为 “Actual”。
11. `plt.show()`: 显示绘制的热力图。
12. `prams ={ 'n_estimators':[10 ,20,40,50, 70], 'max_depth' : [3 ,5, 7,8, 11, 12],'min_samples_split' : [2, 3, 5, 9] , 'criterion' : ['gini', 'entropy'], 'max_features':['sqrt','log2'] }`: 定义一个字典,包含了要进行调参的参数及其取值范围。
13. `gd_rf= GridSearchCV(rf_model , param_grid=prams, n_jobs=-1 ,cv=10)`: 使用网格搜索法(GridSearchCV)对随机森林分类器模型进行参数优化,设置了参数范围、并行处理的进程数和交叉验证的次数。
14. `gd_rf.fit(X_train , y_train)`: 对模型进行训练和参数搜索。
15. `print(gd_rf.best_estimator_)`: 输出最优的随机森林分类器模型。
16. `print(f'Train : {tuned_rf.score(X_train, y_train)}')`: 输出训练集上的预测准确率。
17. `model_eval(tuned_rf,X_test,y_test)`: 对测试集进行模型评估,这里的 `tuned_rf` 是经过参数优化后的模型。
Define hyperparameters to be tuned. param_grid = {'n_estimators': [50, 100, 200], 'learning_rate': [0.05, 0.1, 0.2, 0.5], 'base_estimator__max_depth': [1, 2, 3, 4]}
这是定义用于网格搜索调优的超参数字典的示例代码。其中,param_grid定义了需要调优的超参数和其取值范围,包括:
1. n_estimators:基础分类器数量,可设置为50, 100或200。
2. learning_rate:每个分类器的权重缩减率,可设置为0.05, 0.1, 0.2或0.5。
3. base_estimator__max_depth:基础分类器的最大深度,可设置为1, 2, 3或4。注意这里的双下划线,它用于表示参数max_depth是基础分类器DecisionTreeClassifier的一个参数。
通过这个步骤,可以定义需要调优的超参数,以便使用网格搜索算法寻找最佳的参数组合,从而优化AdaBoost分类器的性能。
阅读全文