中文词频统计

下载一长篇中文文章。

从文件读取待分析文本。

news = open('gzccnews.txt','r',encoding = 'utf-8')

安装与使用jieba进行中文分词。

pip install jieba

import jieba

list(jieba.lcut(news))

生成词频统计

排序

排除语法型词汇,代词、冠词、连词

输出词频最大TOP20

# -*- coding : UTF-8 -*-
# -*- author : onexiaofeng -*-
import jieba

f=open('bbb.txt','r',encoding='utf-8')
notes=f.read()
notelist=list(jieba.lcut(notes))

NoteDic={}
for i in set(notelist):    #计算次数
    NoteDic[i]=notelist.count(i)

delete_word={'',' ','','', '', '', '', '', '', '', '', '','','','','','','','','?','','',\
           '','','','','','','','','', '\n','','','','','','','','','','','','','却说',\
             '','','','便','','','','','','','','','','','','使',''}

for i in delete_word:        #删除非法词汇
    if i in NoteDic:
        del NoteDic[i]

sort_word = sorted(NoteDic.items(), key= lambda d:d[1], reverse = True)  # 由大到小排序
for i in range(20):  #输出词频Top20
    print(sort_word[i])

 

 

posted on 2018-03-28 20:37  176张宇健  阅读(113)  评论(0编辑  收藏  举报