2020年9月12日

摘要: (1)Adaboost 最优的w 处理的粒度是更新参数w,使得损失函数L(y,f(x))最小 (2)GBDT 最优的函数F(X) 处理粒度是更新函数F(X),使得损失函数L(y,F(X))最小。 GBDT分为两种: 都是迭代回归树 每棵树都在学习前N-1棵树尚存的不足 都是累加每颗树结果作为最终结果 阅读全文
posted @ 2020-09-12 10:12 happygril3 阅读(252) 评论(0) 推荐(0)
摘要: 梯度下降算法是求解最优化问题 梯度下降是优化一个损失函数L(y,f(x)),处理的粒度是更新参数w,使得最后的损失函数最小 阅读全文
posted @ 2020-09-12 08:50 happygril3 阅读(129) 评论(0) 推荐(0)

导航