梯度增强决策树gbdt
时间: 2023-09-18 14:05:51 浏览: 124
gradient-boosted-decision-tree:GBDT(梯度增强决策树)
梯度增强决策树(Gradient Boosting Decision Tree, GBDT)是一种集成学习算法,其中使用决策树作为基函数进行提升。在GBDT中,分类问题采用二叉分类树,回归问题采用二叉回归树。与AdaBoosting不同的是,GBDT集成的对象必须是CART回归树。迭代方式也不同,AdaBoosting利用上一轮错误率来更新下一轮分类器的权重,从而提升识别能力;而GBDT使用梯度来实现模型的提升,通过不断减小残差来拟合梯度,实现梯度的下降。梯度提升算法由梯度下降和Boosting两部分组成。常规的梯度下降是在参数空间进行,目的是得到最优的模型参数;而GBDT中的梯度下降是在函数空间进行,目的是得到最优的模型。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* *2* *3* [3. 梯度提升决策树(GBDT)详解](https://blog.csdn.net/gss123_123/article/details/124376348)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"]
[ .reference_list ]
阅读全文