微信扫一扫打赏支持

EM算法总结

EM算法总结

一、总结

一句话总结:

EM算法也称【期望最大化(Expectation-Maximum,简称EM)】算法,
它是一个基础算法,【是很多机器学习领域算法的基础】,比如隐式马尔科夫算法(HMM), LDA主题模型的变分推断等等。

 

1、EM算法要解决的问题?

我们经常会从样本观察数据中,找出样本的模型参数。 最常用的方法就是【极大化模型分布的对数似然函数】。
但是在一些情况下,【我们得到的观察数据有未观察到的隐含数据】,此时我们未知的有隐含数据和模型参数,因而无法直接用极大化对数似然函数得到模型分布的参数。怎么办呢?这就是EM算法可以派上用场的地方了。
EM算法解决这个的思路是【使用启发式的迭代方法】,既然我们【无法直接求出模型分布参数】,那么我们可以【先猜想隐含数据(EM算法的E步)】,接着【基于观察数据和猜测的隐含数据一起来极大化对数似然】,求解我们的模型参数(EM算法的M步)。由于我们之前的隐藏数据是猜测的,所以此时得到的模型参数一般还不是我们想要的结果。不过没关系,我们基于当前得到的模型参数,【继续猜测隐含数据(EM算法的E步)】,然后继续极大化对数似然,求解我们的模型参数(EM算法的M步)。以此类推,【不断的迭代下去,直到模型分布参数基本无变化】,算法收敛,找到合适的模型参数。
从上面的描述可以看出,【EM算法是迭代求解最大值的算法,同时算法在每一次迭代时分为两步,E步和M步】。一轮轮迭代更新隐含数据和模型分布参数,直到收敛,即得到我们需要的模型参数。

 

2、一个最直观了解EM算法思路的是K-Means算法?

一个最直观了解EM算法思路的是K-Means算法。在K-Means聚类时,【每个聚类簇的质心是隐含数据】。我们会假设【K个初始化质心】,即EM算法的E步;然后【计算得到每个样本最近的质心,并把样本聚类到最近的这个质心】,即EM算法的M步。【重复这个E步和M步,直到质心不再变化为止】,这样就完成了K-Means聚类。
当然,【K-Means算法是比较简单】的,实际中的问题往往没有这么简单。

 

 

 

二、EM算法原理总结

转自:EM算法原理总结
https://www.cnblogs.com/pinard/p/6912636.html"> EM算法原理总结

 

EM算法也称期望最大化(Expectation-Maximum,简称EM)算法,它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM), LDA主题模型的变分推断等等。本文就对EM算法的原理做一个总结。

1. EM算法要解决的问题

我们经常会从样本观察数据中,找出样本的模型参数。 最常用的方法就是极大化模型分布的对数似然函数。

但是在一些情况下,我们得到的观察数据有未观察到的隐含数据,此时我们未知的有隐含数据和模型参数,因而无法直接用极大化对数似然函数得到模型分布的参数。怎么办呢?这就是EM算法可以派上用场的地方了。

EM算法解决这个的思路是使用启发式的迭代方法,既然我们无法直接求出模型分布参数,那么我们可以先猜想隐含数据(EM算法的E步),接着基于观察数据和猜测的隐含数据一起来极大化对数似然,求解我们的模型参数(EM算法的M步)。由于我们之前的隐藏数据是猜测的,所以此时得到的模型参数一般还不是我们想要的结果。不过没关系,我们基于当前得到的模型参数,继续猜测隐含数据(EM算法的E步),然后继续极大化对数似然,求解我们的模型参数(EM算法的M步)。以此类推,不断的迭代下去,直到模型分布参数基本无变化,算法收敛,找到合适的模型参数。

从上面的描述可以看出,EM算法是迭代求解最大值的算法,同时算法在每一次迭代时分为两步,E步和M步。一轮轮迭代更新隐含数据和模型分布参数,直到收敛,即得到我们需要的模型参数。

一个最直观了解EM算法思路的是K-Means算法,见之前写的K-Means聚类算法原理。在K-Means聚类时,每个聚类簇的质心是隐含数据。我们会假设KK 个初始化质心,即EM算法的E步;然后计算得到每个样本最近的质心,并把样本聚类到最近的这个质心,即EM算法的M步。重复这个E步和M步,直到质心不再变化为止,这样就完成了K-Means聚类。

当然,K-Means算法是比较简单的,实际中的问题往往没有这么简单。上面对EM算法的描述还很粗糙,我们需要用数学的语言精准描述。

2. EM算法的推导

至此,我们理解了EM算法中E步和M步的具体数学含义。

3. EM算法流程

现在我们总结下EM算法的流程。

4. EM算法的收敛性思考

EM算法的流程并不复杂,但是还有两个问题需要我们思考:

1) EM算法能保证收敛吗?

2) EM算法如果收敛,那么能保证收敛到全局最大值吗?  

首先我们来看第一个问题, EM算法的收敛性。要证明EM算法收敛,则我们需要证明我们的对数似然函数的值在迭代的过程中一直在增大。即:

从上面的推导可以看出,EM算法可以保证收敛到一个稳定点,但是却不能保证收敛到全局的极大值点,因此它是局部最优的算法,当然,如果我们的优化目标L(θ,θj)L ( θ , θ j ) 是凸的,则EM算法可以保证收敛到全局最大值,这点和梯度下降法这样的迭代算法相同。至此我们也回答了上面提到的第二个问题。

5. EM算法的一些思考

如果我们从算法思想的角度来思考EM算法,我们可以发现我们的算法里已知的是观察数据,未知的是隐含数据和模型参数,在E步,我们所做的事情是固定模型参数的值,优化隐含数据的分布,而在M步,我们所做的事情是固定隐含数据分布,优化模型参数的值。比较下其他的机器学习算法,其实很多算法都有类似的思想。比如SMO算法(支持向量机原理(四)SMO算法原理),坐标轴下降法(Lasso回归算法: 坐标轴下降法与最小角回归法小结), 都使用了类似的思想来求解问题。

大家也可以去比较下这些算法的优化方法,看思路上是不是有共同之处。

原文:http://www.cnblogs.com/pinard/p/6912636.html

 
posted @ 2020-11-17 23:43  范仁义  阅读(387)  评论(0编辑  收藏  举报