上一页 1 ··· 144 145 146 147 148 149 150 151 152 ··· 236 下一页
该文被密码保护。 阅读全文
posted @ 2017-03-20 15:45 blcblc 阅读(1) 评论(0) 推荐(0)
摘要: http://blog.csdn.net/shanshanpt/article/details/8977512 这篇文章讲得不错。 所谓的启发函数,所谓权值之类(此处所谓的权值就是路劲的长度)。YES,我们需要OPEN表中权值F最小的那个点!为什么呢,当然是权值越小,越靠近目标点咯! 对于权值我们设 阅读全文
posted @ 2017-03-20 15:06 blcblc 阅读(933) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-20 14:28 blcblc 阅读(0) 评论(0) 推荐(0)
摘要: https://vimsky.com/article/917.html 各种分类算法的优缺点 qingchuan 机器学习 2015-05-23  604 次浏览 分类, 机器学习 各种分类算法的优缺点已关闭评论 原文来自: http://bbs.pinggu.org/thread-26 阅读全文
posted @ 2017-03-20 14:19 blcblc 阅读(924) 评论(0) 推荐(0)
摘要: 随机森林的内容可以看这里:Link 提升树:http://blog.csdn.net/sb19931201/article/details/52506157 GBDT的核心就在于,每一棵树学的是之前所有树结论和的残差,这个残差就是一个加预测值后能得真实值的累加量。比如A的真实年龄是18岁,但第一棵树 阅读全文
posted @ 2017-03-20 11:49 blcblc 阅读(797) 评论(0) 推荐(0)
摘要: 开始的时候,我居然弄混了。 knn是分类方法,是通过新加入的节点最接近的N个节点的属性,来判定新的节点。 kmeans是聚类方法,是先选择k个点作为k个簇的中点,然后分簇之后重新划定中心点,然后再分簇的方法。 knn可以参考 http://www.cnblogs.com/charlesblc/p/6 阅读全文
posted @ 2017-03-19 23:37 blcblc 阅读(1537) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 23:12 blcblc 阅读(2) 评论(0) 推荐(0)
摘要: 有一篇是比较最大似然估计和最小二乘法的: http://www.cnblogs.com/hxsyl/p/5590358.html 阅读全文
posted @ 2017-03-19 22:12 blcblc 阅读(240) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 19:20 blcblc 阅读(4) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2017-03-19 19:10 blcblc 阅读(2) 评论(0) 推荐(0)
上一页 1 ··· 144 145 146 147 148 149 150 151 152 ··· 236 下一页