随笔分类 -  机器学习

摘要:第三讲比较简单,参考:http://www.cnblogs.com/HappyAngel/p/3466527.html 第四讲很抽象,尤其是第四个视频,目的仍然是为了证明机器学习是可能的,不过这个博主解释的还算清楚:http://www.cnblogs.com/HappyAngel/p/349580 阅读全文
posted @ 2015-06-20 21:55 牧马人夏峥 阅读(191) 评论(0) 推荐(0)
摘要:这学期学了机器学习这门课,想趁期末看看台大的这门课再把课程梳理一遍。 PLA是判断是非题,即输出1或-1。 笔记可以参考这位博主,写得还不错:http://www.cnblogs.com/HappyAngel/p/3456762.html 其中证明PLA算法确实能够越来越接近最完美的感知机以及PLA 阅读全文
posted @ 2015-06-18 22:35 牧马人夏峥 阅读(218) 评论(0) 推荐(0)
摘要:http://spin.atomicobject.com/2014/06/24/gradient-descent-linear-regression/这篇博文结合线性回归的例子介绍了梯度下降,有图有代码,通俗易懂 阅读全文
posted @ 2015-06-04 07:58 牧马人夏峥 阅读(159) 评论(0) 推荐(0)
摘要:参考:http://www.52ml.net/16296.html 这个算法的优点就在于,它首先一步就能找到聚类中心,然后划分类别。而其他算法需要反复迭代才能找到中心聚类。 就是不知道代码该怎么写。。。。。。。 阅读全文
posted @ 2015-05-19 10:25 牧马人夏峥 阅读(352) 评论(0) 推荐(0)
摘要:参考:http://www.cnblogs.com/ywl925/p/3275878.html这个模型主要用于信息检索,但它的思想用于图像也未尝不可。TFIDF的主要思想是:如果某个词或短语在一篇文章中出现的频率TF高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类... 阅读全文
posted @ 2015-05-18 14:26 牧马人夏峥 阅读(142) 评论(0) 推荐(0)
摘要:这是 Quora上的一篇文章:http://www.quora.com/What-is-an-eigenvector-of-a-covariance-matrix 协方差矩阵最大特征值对应的特征向量的方向,就是数据变化最大的方向。其他特征向量依次正交。 阅读全文
posted @ 2015-05-12 08:11 牧马人夏峥 阅读(2469) 评论(0) 推荐(0)
摘要:参考:http://www.cnblogs.com/jerrylead/archive/2011/04/19/2021071.html 对高斯分布的样本点效果不好。数学真是博大精深啊 阅读全文
posted @ 2015-05-11 22:30 牧马人夏峥 阅读(116) 评论(0) 推荐(0)
摘要:理论部分可以看斯坦福大学的那份讲义,通俗易懂:http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html opencv中有PCA这个类,具体的实现可参考:http://www.cnblogs.com/zcftech/archive 阅读全文
posted @ 2015-05-11 21:56 牧马人夏峥 阅读(316) 评论(0) 推荐(0)
摘要:对于线性回归式Y=wtX,y中的每个特征都与x的所有特征相关联,但无法表示y的各个特征之间的联系。 为此需要将整体表示成Y和X各自特征间的线性组合,也就是考察aTx和bTy之间的关系,用相关系数表示, 因此,问题就转化为求一组a,b使得相关系数最大,用拉格朗日求解。 阅读全文
posted @ 2015-05-07 08:01 牧马人夏峥 阅读(156) 评论(0) 推荐(0)
摘要:转自:http://www.cvchina.net/post/151.html 这篇文章主要介绍了一些常用算法的优缺点,言简意赅,不错。 阅读全文
posted @ 2015-05-05 11:40 牧马人夏峥 阅读(192) 评论(0) 推荐(0)
摘要:《统计学习方法》这本书上写的太抽象,可参考这位大神的:http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006924.html 阅读全文
posted @ 2015-05-04 14:27 牧马人夏峥 阅读(115) 评论(0) 推荐(0)
摘要:参考:http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html 可以参考李航的统计学习方法,给了个例子,便于理解 阅读全文
posted @ 2015-04-21 09:24 牧马人夏峥 阅读(200) 评论(0) 推荐(0)
摘要:参考:http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006910.html k-means是无监督的聚类算法,比较简单,但包含的思想不简单,与后面很难的EM有很大关联 阅读全文
posted @ 2015-04-21 08:48 牧马人夏峥 阅读(277) 评论(0) 推荐(0)
摘要:上课听老师讲SVM,听了个大概,这篇文章把整体的思路写了出来,非常的赞。http://www.cnblogs.com/LeftNotEasy/archive/2011/05/02/basic-of-svm.html 阅读全文
posted @ 2015-04-19 20:40 牧马人夏峥 阅读(127) 评论(0) 推荐(0)
摘要:参考:http://ask.julyedu.com/question/276 说下自己的理解。 使用对偶是为了更容易求解,使min max f(w,a,b)(设为p*)转化为 max min f(w,a,b)(设为d*) d*0,这样的点才是支持向量。 先将a固定,分别对w,... 阅读全文
posted @ 2015-03-31 08:36 牧马人夏峥 阅读(183) 评论(0) 推荐(0)