摘要:
1. 回归 训练了两个回归器,GBDT和Xgboost,用这两个回归器做stacking 使用之前已经调好参的训练器 事先建好stacking要用到的矩阵 r2值最高为0.79753,效果还不是特别的好 然后用五折交叉验证,每折都预测整个测试集,得到五个预测的结果,求平均,就是新的预测集;而训练集就 阅读全文
posted @ 2019-03-25 20:07
nxf_rabbit75
阅读(5806)
评论(0)
推荐(5)
摘要:
一、xgboost简介: 全称:eXtreme Gradient Boosting 作者:陈天奇(华盛顿大学博士) 基础:GBDT 所属:boosting迭代型、树类算法。 适用范围:分类、回归 优点:速度快、效果好、能处理大规模数据、支持多种语言、支持自定义损失函数等等。 缺点:算法参数过多,调参 阅读全文
posted @ 2019-03-25 18:44
nxf_rabbit75
阅读(8822)
评论(0)
推荐(2)
摘要:
一、GBDT类库弱学习器参数 参数分为三类 第一类:Miscellaneous Parameters: Other parameters for overall functioning. 没啥用 第二类:Boosting Parameters: These affect the boosting o 阅读全文
posted @ 2019-03-25 14:24
nxf_rabbit75
阅读(4950)
评论(0)
推荐(3)
摘要:
0范数:向量中非零元素的个数。 1范数:为绝对值之和。1范数和0范数可以实现稀疏,1因具有比L0更好的优化求解特性而被广泛应用。 2范数:就是通常意义上的模,L2范数是指向量各元素的平方和然后求平方根。我们让L2范数的正则项||W||2最小,可以使得W的每个元素都很小,都接近于0,但与L1范数不同, 阅读全文
posted @ 2019-03-25 11:05
nxf_rabbit75
阅读(4416)
评论(0)
推荐(1)
摘要:
1. filter 功能: filter的功能是过滤掉序列中不符合函数条件的元素,当序列中要删减的元素可以用某些函数描述时,就应该想起filter函数。 调用: filter(function,sequence),function可以是匿名函数或者自定义函数,它会对后面的sequence序列的每个元 阅读全文
posted @ 2019-03-25 09:27
nxf_rabbit75
阅读(922)
评论(0)
推荐(0)
浙公网安备 33010602011771号