2-gram分词

和前一篇介绍的最大概率分词比较,2-gram分词也是一种最大概率分词,只不过在计算一个词概率的时候,它不光考虑自己,还会考虑它的前驱。

我们需要两个字典。第一个字典记录词\(w_i\)出现的频次,第二个字典记录词对儿<\(w_j,w_i\)>共同出现的频次。有这两份字典,我们就可以计算出条件概率\(p(w_i|w_j)=p(w_i,w_j)/p(w_j)\)。

为了直观表示计算过程,我们还是构建出一个图出来。跟上一篇不同,这里换个方向,我们考虑结束字,而不是开始字,因为是后面的词依赖前面的词。

 

这里必须说明一个问题。n-gram是基于HMM的,它假定后面的状态不会影响前面的状态,因此当前面部分的分词已经分完之后,它就不在受后面词的影响了。当然,现实情况中不是这样个样子的,比如abcd中的abc不考虑d的最好分词是a/bc,如果考虑了d就可能是a/bc了。为了简单,这里先不做考虑。

那么,假设\(\alpha_i\)是以i结尾的最优分词的累计概率,j是i的邻接点,容易得到\(\alpha_i=max_jp(w(j,i)|w(?,j-1))*\alpha_{j-1}\).这里w(?,j-1)是以j-1结束的分词结果中的最后一个词。

可以看出这也是个动态规划问题,基本形式和上一篇最大概率分词区别不大。

具体的代码可以去

posted @ 2016-11-13 17:47  HOLD  阅读(4072)  评论(0编辑  收藏  举报