GBDT
(1)Adaboost
最优的w
处理的粒度是更新参数w,使得损失函数L(y,f(x))最小

(2)GBDT

最优的函数F(X)
处理粒度是更新函数F(X),使得损失函数L(y,F(X))最小。




GBDT分为两种:
都是迭代回归树
每棵树都在学习前N-1棵树尚存的不足
都是累加每颗树结果作为最终结果
(1)残差版本
残差迭代树,其核心思想是每轮通过拟合残差来降低损失函数。
优点:全局最优值,每一步都在试图让结果变成最好
缺点:由于它依赖残差,cost function一般固定为反映残差的均方差,很难处理纯回归问题之外的问题。
步骤:
在学习的过程中,首先学习一颗回归树,然后得到残差
把残差作为一个学习目标,学习下一棵回归树
依次类推,直到残差小于某个接近0的阀值或回归树数目达到某一阀值。
(2)梯度版本
梯度迭代树
Gradient是局部最优方向*步长,每步试图让结果更好一点
优点:只要可求导的cost function都可以使用。
(1)残差


现在A,B,C,D的预测值都和真实年龄一致 A: 15岁高中学生,收入较少,天天没时间玩电脑;预测年龄A = 17– 2 = 15
B: 19岁大学生;收入较少,天天宅在宿舍玩电脑;预测年龄B = 17+ 2 = 19
C: 23岁运动员;收入较多,体育训练没时间玩电脑;预测年龄C = 25 – 2 = 23
D: 27岁码农;收入较多,长时间玩电脑;预测年龄D = 25 + 2 = 27
(2)梯度下降





年龄7计算方式:
均值:(-0.175+0.225+0.325)/3=0.125
方差:[(-0.175-0.125)^2 + (0.225-0.125)^2 + (0.325-0.125)^2 ]/3=0.047



1.75=1.475+0.275
posted on 2020-09-12 10:12 happygril3 阅读(252) 评论(0) 收藏 举报
浙公网安备 33010602011771号