Adaboost

利用前一轮迭代弱学习器的误差率来更新训练集的权重, 提高那些前一轮中被误分类的样本的权重,让它们在后面的迭代中受到更多的重视。

在组合多个弱分类器时采用了加权求和。

 

参考博客

https://www.cnblogs.com/pinard/p/6133937.html

 

posted @ 2019-07-03 15:46  AI_Engineer  阅读(135)  评论(0)    收藏  举报