上一页 1 ··· 3 4 5 6 7 8 9 下一页
摘要: 阅读全文
posted @ 2013-09-30 10:15 kobeshow 阅读(114) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2013-09-30 09:25 kobeshow 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2013-09-29 18:49 kobeshow 阅读(178) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2013-09-29 18:46 kobeshow 阅读(184) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2013-09-29 18:18 kobeshow 阅读(148) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2013-09-29 18:12 kobeshow 阅读(123) 评论(0) 推荐(0) 编辑
摘要: Adaboost也是一种原理简单,但很实用的有监督机器学习算法,它是daptive boosting的简称。说到boosting算法,就不得提一提bagging算法,他们两个都是把一些弱分类器组合起来来进行分类的方法,统称为集成方法(ensemble method),类似于投资,“不把鸡蛋放在一个篮子”,虽然每个弱分类器分类的不那么准确,但是如果把多个弱分类器组合起来可以得到相当不错的结果,另外要说的是集成方法还可以组合不同的分类器,而Adaboost和boosting算法的每个弱分类器的类型都一样的。他们两个不同的地方是:boosting的每个弱分类器组合起来的权重不一样,本节的Adabo. 阅读全文
posted @ 2013-09-29 17:11 kobeshow 阅读(477) 评论(0) 推荐(0) 编辑
摘要: 做机器学习的一定对支持向量机(support vector machine-SVM)颇为熟悉,因为在深度学习出现之前,SVM一直霸占着机器学习老大哥的位子。他的理论很优美,各种变种改进版本也很多,比如latent-SVM, structural-SVM等。这节先来看看SVM的理论吧,在(图一)中A图表示有两类的数据集,图B,C,D都提供了一个线性分类器来对数据进行分类?但是哪个效果好一些?(图一) 可能对这个数据集来说,三个的分类器都一样足够好了吧,但是其实不然,这个只是训练集,现实测试的样本分布可能会比较散一些,各种可能都有,为了应对这种情况,我们要做的就是尽可能的使得线性分类器离两... 阅读全文
posted @ 2013-09-27 11:14 kobeshow 阅读(1589) 评论(0) 推荐(0) 编辑
摘要: 本章是上一章邮件过滤技术的延伸,上一章的内容主要是过滤掉垃圾邮件,而这里要讲的是对那些正常的邮件是否可以加入个性化元素,由于每个用户关心的主题并非一样(有人喜欢技术类型的邮件或者购物促销方便的内容邮件等)。如何把邮件按照用户的关注程度分类,把重要邮件优先让用户浏览, 无疑会大大的增加用户的体验。 Tapestry作为最早的个性化邮箱,它通过分析用户阅读邮件的行为习惯对邮件进行排序,提供个性化服务。这个想结合最近的做的项目(游戏推荐)一起讲,跳过这一章看机器学习里面的回归问题。 阅读全文
posted @ 2013-09-27 10:20 kobeshow 阅读(367) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2013-09-27 08:56 kobeshow 阅读(100) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 下一页