机器学习-GBDT和XGboost

参考:

陈天奇slides :   https://homes.cs.washington.edu/~tqchen/pdf/BoostedTree.pdf

Friedman GBDT 论文:  http://ishare.down.sina.com.cn/28081146.pdf?ssig=NHjGnmOrHr&Expires=1514088754&KID=sina,ishare&ip=&fn=Greedy+function+approximation+A+gradient+boosting+machine+%28magazine%29.pdf

 

xgboost的原理,在陈天奇的ppt里讲的很清楚。这里需要注意的就是树的构造是直接根据损失函数的增益来选取分裂特征。

GBDT论文里,不仅讲了一般的回归问题GB的做法,也讲了回归树和分类树的做法。网上看到好多讲GBDT的,都混为一谈。

 

posted on 2017-10-25 13:15  parkin  阅读(353)  评论(0编辑  收藏  举报

导航