10 2017 档案
牛顿法,拟牛顿法,L-BGFS
摘要:http://blog.csdn.net/itplus/article/details/21896453 这篇文章牛顿法讲的比较好 http://blog.csdn.net/itplus/article/details/21896619 这篇文章对拟牛顿法讲的比较好 http://blog.csdn 阅读全文
posted @ 2017-10-31 17:58 raul313 阅读(1160) 评论(0) 推荐(0)
GBDT+LR融合
摘要:http://blog.csdn.net/lilyth_lilyth/article/details/48032119 这篇文章介绍了融合方案 阅读全文
posted @ 2017-10-31 11:18 raul313 阅读(551) 评论(0) 推荐(0)
集成学习
摘要:https://zhuanlan.zhihu.com/p/27689464 这篇文章对集成学习讲的不错 http://www.cnblogs.com/jasonfreak/p/5657196.html 这篇文章从理论和实践2个方面来介绍 http://www.cnblogs.com/jasonfre 阅读全文
posted @ 2017-10-30 15:51 raul313 阅读(163) 评论(0) 推荐(0)
决策树&随机森林&GBDT
摘要:决策树算法 这篇文章: https://zhuanlan.zhihu.com/p/26703300 对决策树算法说的非常深入浅出 决策树模型核心是下面几个部分: (1) 结点和有向边组成 (2) 结点有内部结点和叶结点2种类型 (3) 内部结点表示一个特征,叶节点表示一个类 决策树的关键步骤是分裂属 阅读全文
posted @ 2017-10-29 22:42 raul313 阅读(456) 评论(0) 推荐(0)
极大似然估计
摘要:知乎上这篇文章介绍的比较形象:https://www.zhihu.com/question/24124998 先比较下概率和似然,把硬币的"花"出现的概率称为硬币的参数 1. 概率VS似然 1.1 概率 已知硬币的参数,就可以去推测抛硬币的各种情况的可行性,成称之为概率 比如已知硬币是公平的,也就是 阅读全文
posted @ 2017-10-29 17:29 raul313 阅读(245) 评论(0) 推荐(0)
交叉验证
摘要:1. 在保留交叉验证(hand-out cross validation)中,随机将训练样本集分成训练集(training set)和交叉验证集(cross validation set),比如分别占70%,30%。然后使用模型在训练集上学习得到假设。最后使用交叉验证集对假设进行验证,看预测的是否准 阅读全文
posted @ 2017-10-27 19:05 raul313 阅读(218) 评论(0) 推荐(0)
LO,L1和L2范式
摘要:监督机器学习问题无非就是再规则化参数的同时最小化误差。 *最小化误差是为了让我们的模型拟合我们的训练数据,而规则化参数是防止我们的模型过分拟合我们的训练数据 规则化参数的作用: *使得模型简单,且具有好的泛化性能(也就是测试误差小) *将人对这个模型的先验知识融入到模型的学习当中,使得模型具有稀疏、 阅读全文
posted @ 2017-10-27 11:26 raul313 阅读(6072) 评论(0) 推荐(0)
数据挖掘机器学习路径
摘要:1. 基础部分 http://www.cnblogs.com/charlotte77/p/5606926.html 这个系列非常基础可重点看看 1.1 数据清洗 http://www.cnblogs.com/charlotte77/p/5606926.html 标准差:中文环境也叫均方差,均方差和方 阅读全文
posted @ 2017-10-24 16:53 raul313 阅读(425) 评论(0) 推荐(0)
形象介绍神经网络
摘要:https://www.zhihu.com/question/22553761 阅读全文
posted @ 2017-10-09 10:42 raul313 阅读(90) 评论(0) 推荐(0)
nlp-jieba分词
摘要:http://www.cnblogs.com/zhbzz2007/p/6084196.html http://blog.csdn.net/u010454729/article/details/40476483 使用方法 阅读全文
posted @ 2017-10-06 17:14 raul313 阅读(145) 评论(0) 推荐(0)