摘要:
AdaBoost训练弱分类器关注的是那些被分错的样本,AdaBoost每一次训练都是为了减少错误分类的样本。而GBDT训练弱分类器关注的是残差,也就是上一个弱分类器的表现与完美答案之间的差距,GBDT每一次训练分类器,都是为了减少这个差距。 GBDT的原理就是所有弱分类器的结果相加等于预测值,然后下 阅读全文
posted @ 2021-04-16 21:35
LLLLgR
阅读(1011)
评论(0)
推荐(0)
浙公网安备 33010602011771号