摘要:
(1)Adaboost 最优的w 处理的粒度是更新参数w,使得损失函数L(y,f(x))最小 (2)GBDT 最优的函数F(X) 处理粒度是更新函数F(X),使得损失函数L(y,F(X))最小。 GBDT分为两种: 都是迭代回归树 每棵树都在学习前N-1棵树尚存的不足 都是累加每颗树结果作为最终结果 阅读全文
posted @ 2020-09-12 10:12
happygril3
阅读(252)
评论(0)
推荐(0)

浙公网安备 33010602011771号