• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
james1207

博客园    首页    新随笔    联系   管理    订阅  订阅

数学之路(3)-机器学习(3)-机器学习算法-贝叶斯定理(3)

然后,我们接着计算词条的先验概率部分

 

#计算词条先验概率
print u"\n计算词条概率"
ybgl={}

for my_word in wordybcount.keys():
    ybgl.setdefault(my_word,np.repeat(0.,len(yb_txt)).tolist())
    for ybii in xrange(0,len(yb_txt)):
        ybgl[my_word][ybii]=wordybcount[my_word][ybii]/float(lbcount[ybii])
    print ".", 
        

本博客所有内容是原创,如果转载请注明来源

http://blog.csdn.net/myhaspl/


计算先验概率后,我们来看公式。

 

我们已经得到了


余下的事情就是读入待分类的样本,分词后,代入



计算出其所属类别概率中的最大值,输出目标值即所属概率最大的类


 

posted @ 2013-09-16 19:14  Class Xman  阅读(151)  评论(0)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3