ml xgboost与adaboost集成算法
xgboost就是将一次次的分类结果慢慢集成到靠近结果的方法,比如目标是1000,第一次是900,第二次是50,第三次是20,最后的结果就是970,效果不错。
xgboost的算法推导在这里不赘述,在ppt里有详细介绍。
adaboost则是将一个个的数据一开始设置为一样的权重参数,然后比较分类结果,如果正确降低权重参数,如果错误升高权重参数,通过一次次的改变使得最后的分类效果变好,这个即是自适应增强。
有关代码方面在我的案例中,因为本次学习时间在凌晨4点多,有点困。就不多写了,写点我的理解。

浙公网安备 33010602011771号