摘要: 大致看来,我感觉xgboost就是GBDT的改进版,它在原来的基础上加了正则项,也就是优化函数中不仅考虑了误差,还考虑了拟合函数的复杂度。注意这里与GBDT一样,还是用的CRAT树,还是那种串行累加。具体原理与公式推导看这英文版,中文的(写得很好),辅看这个。 阅读全文
posted @ 2018-12-26 16:51 maxiaonong 阅读(124) 评论(0) 推荐(0)