统计学习方法:最大熵模型

作者:桂。

时间:2017-05-12  12:45:57

链接:http://www.cnblogs.com/xingshansi/p/6770062.html 


前言

主要是最大熵模型(Maximum entropy model)的学习记录。

一、基本性质

  在啥也不知道的时候,没有什么假设以及先验作为支撑,我们认为事件等可能发生,不确定性最大。反过来,所有可能性当中,不确定性最大的模型最好。熵是衡量不确定性(也就是信息量)的度量方式,这就引出了最大熵模型:

 实际情况里,概率的取值可能不是任意值,因此通常有一些约束条件。

二、理论模型

对于给定的训练数据集以及特征函数,最大熵模型的参数求解,对应优化问题:

补充:这里多说两句,对于优化问题(且含有不等式约束)的求解,可以将约束条件写成拉格朗日乘子的形式。这样就实现了约束问题→无约束问题的转化。

转化之后的无约束问题,是不是一定有最优解呢?可以求出最优解有一个必要条件,这个条件就是有名的:KKT条件。之前分析过,不细说了。

上面的优化问题可以改变一下形式:

对于这一优化问题,可以利用拉格朗日乘子法(也叫 拉格朗日松弛法)求解:

这就将含有约束条件的优化问题转化为不含约束条件的优化问题。对于这个无约束的求解:

熵是凸函数,且约束条件都是仿射函数,因此该求解的对偶形式求解,二者的结果一致,因此为了简化运算,利用对偶形式求解(这个之前的文章有分析过了):

针对对偶问题进行求解,至此完成了参数求解的整个思路,总结一下就是三个步骤:

  • 第一步:分析原始问题
  • 第二步:拉格朗日乘子法转化
  • 第三步:对偶问题求解

三、应用举例

对于A,B,C,D,E,对A的p(y1)及B的p(y2)有约束,求解最大熵模型。

分析(三步走)

第一步,求解原始问题:

第二步,利用拉格朗日乘子法:

第三步:对偶问题求解:

最终结果为:

参考

  • 李航《统计学习方法》
posted @ 2017-05-12 13:18  LeeLIn。  阅读(837)  评论(0编辑  收藏  举报