bagging和boosting的思路
时间: 2023-10-22 12:07:17 浏览: 89
集成学习之bagging、boosting及AdaBoost的实现
Bagging(Bootstrap Aggregating)和Boosting 是两种集成学习的思路。
Bagging的思路是通过对训练数据集进行有放回的随机抽样,得到多个子样本,然后使用相同的算法在每个子样本上训练出一个基模型,最后将这些基模型进行平均或投票来得到最终结果。Bagging的目的是通过降低方差来提高模型的稳定性和泛化能力。
Boosting的思路是先通过一个基模型对训练集进行拟合,然后根据预测结果对训练集进行加权,使得误分类样本的权重增加,正确分类样本的权重减小,接着使用加权后的样本重新训练一个基模型,如此重复多次,最终通过将这些基模型进行加权平均来得到最终结果。Boosting的目的是通过降低偏差来提高模型的准确性和泛化能力。
Bagging和Boosting都是集成学习的思路,它们的区别在于样本的选择和权重的更新方式。Bagging采用随机抽样和平均投票的方式,而Boosting采用加权样本和加权平均的方式。通常来说,Bagging更适合用于降低方差的问题,而Boosting更适合用于降低偏差的问题。
阅读全文