上一页 1 ··· 141 142 143 144 145 146 147 148 149 ··· 233 下一页
摘要: 随机森林的内容可以看这里:Link 提升树:http://blog.csdn.net/sb19931201/article/details/52506157 GBDT的核心就在于,每一棵树学的是之前所有树结论和的残差,这个残差就是一个加预测值后能得真实值的累加量。比如A的真实年龄是18岁,但第一棵树 阅读全文
posted @ 2017-03-20 11:49 blcblc 阅读(792) 评论(0) 推荐(0)
摘要: 开始的时候,我居然弄混了。 knn是分类方法,是通过新加入的节点最接近的N个节点的属性,来判定新的节点。 kmeans是聚类方法,是先选择k个点作为k个簇的中点,然后分簇之后重新划定中心点,然后再分簇的方法。 knn可以参考 http://www.cnblogs.com/charlesblc/p/6 阅读全文
posted @ 2017-03-19 23:37 blcblc 阅读(1533) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 23:12 blcblc 阅读(2) 评论(0) 推荐(0)
摘要: 有一篇是比较最大似然估计和最小二乘法的: http://www.cnblogs.com/hxsyl/p/5590358.html 阅读全文
posted @ 2017-03-19 22:12 blcblc 阅读(239) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 19:20 blcblc 阅读(4) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 19:10 blcblc 阅读(2) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 18:16 blcblc 阅读(1) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 17:42 blcblc 阅读(1) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 17:40 blcblc 阅读(0) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 17:16 blcblc 阅读(1) 评论(0) 推荐(0)
上一页 1 ··· 141 142 143 144 145 146 147 148 149 ··· 233 下一页