python GBDT的参数
时间: 2023-06-28 11:14:29 浏览: 91
GBDT_Simple_Tutorial:python实现GBDT的回归、二分类以及多分类,将算法流程详情进行展示解读并可视化,庖丁解牛地理解GBDT。Gradient Boosting Decision Trees regression, dichotomy and multi-classification are realized based on python, and the details of algorithm flow are displayed, interpreted and visu
GBDT在Python中的实现有多种,参数设置略有不同。以下是一些常见的参数设置:
- `n_estimators`: 迭代次数,即生成多少个决策树,默认值为100。
- `learning_rate`: 学习率,即每个树的权重缩放比例,默认值为0.1。
- `max_depth`: 决策树的最大深度,默认值为3。
- `min_samples_split`: 内部节点分裂所需的最小样本数,默认值为2。
- `min_samples_leaf`: 叶子节点所需的最小样本数,默认值为1。
- `max_features`: 每个决策树在分裂节点时使用的特征数,默认值为None,表示使用所有特征。
- `loss`: 损失函数
阅读全文