随笔分类 - 模式识别&机器学习
摘要:在 聚类算法K-Means, K-Medoids, GMM, Spectral clustering,Ncut一文中我们给出了GMM算法的基本模型与似然函数,在EM算法原理中对EM算法的实现与收敛性证明进行了详细说明。本文主要针对如何用EM算法在混合高斯模型下进行聚类进行代码上的分析说明。 1. GMM模型: 每个 GMM 由 K 个 Gaussian 分布组成,每个 Gaussian 称为一...
阅读全文
摘要:经过试验测试发现,1.0版本的opencv里面的train函数里面训练点的个数不能太多,否则,会出现内存溢出而程序崩溃掉的现象。
阅读全文
摘要:这篇讨论使用期望最大化算法(Expectation-Maximization)来进行密度估计(density estimation)。 与k-means一样,给定的训练样本是,我们将隐含类别标签用表示。与k-means的硬指定不同,我们首先认为是满足一定的概率分布的,这里我们认为满足多项式分布,,其中,有k个值{1,…,k}可以选取。而且我们认为在给定后,满足多值高斯分布,即。由此可以得到联合分布。 整个模型简单描述为对于每个样例,我们先从k个类别中按多项式分布抽取一个,然后根据所对应的k个多值高斯分布中的一个生成样例,。整个过程称作混合高斯模型。注意的是这里的仍然是隐含随机变量。模型中还有三
阅读全文
摘要:图1:mutilmodel distribution data 高斯分布(Gaussian distribution),是一个在数学、物理及工程等领域都非常重要的连续概率分布函数,它描述了一种围绕某个单值聚集分布的随机变量。生活中,各种各样的心理学测试分数和物理现象比如光子计数都被发现近似地服从高斯分布。同时,高斯分布也是统计学以及许多统计测试中最广泛应用的一类分布。中心极限定理表明...
阅读全文
摘要:转自http://blog.pluskid.org/?p=39;上一次我们谈到了用 k-means 进行聚类的方法,这次我们来说一下另一个很流行的算法:Gaussian Mixture Model (GMM)。事实上,GMM 和 k-means 很像,不过 GMM 是学习出一些概率密度函数来(所以 GMM 除了用在 clustering 上之外,还经常被用于 density estimation ),简单地说,k-means 的结果是每个数据点被 assign 到其中某一个 cluster 了,而 GMM 则给出这些数据点被 assign 到每个 cluster 的概率,又称作soft ass
阅读全文
摘要:摘要:机器学习与数据挖掘!重中之重,热中之热。要“深入浅出,要言不烦,不卖关子,不摆噱头”讲清楚机器学习,斯坦福大学教授Andrew Ng做到了。这是他的26篇教程的翻译,建议收藏。机器学习与数据挖掘!重中之重,热中之热。每一篇在CSDN云计算频道发表的相关文章都获得无数响应与评价。我们一直在思考如何能将文章汇聚成系列,并建立了“机器学习”的tag,但要从浅入深,汇聚前沿,点评发展,并将云计算与大数据领域最具价值的部分体现出来,很难。幸好业内有专家走在了最前面。美国卡内基梅隆计算机机器人专业博士、面向移动云计算创业人邓侃博士(@邓侃)在2月20日看到了斯坦福大学教授Andrew Ng的网页:越
阅读全文

浙公网安备 33010602011771号