中文词频统计

下载一长篇中文文章。

从文件读取待分析文本。

news = open('gzccnews.txt','r',encoding = 'utf-8')

安装与使用jieba进行中文分词。

pip install jieba

import jieba

list(jieba.lcut(news))

生成词频统计

排序

排除语法型词汇,代词、冠词、连词

输出词频最大TOP20

import jieba


fo=open('aaa.txt','r',encoding = 'utf-8')

text=fo.read()
text2=list(jieba.lcut(text))

sign={'',' ','','我们', '', '他们', '我的', '他的', '你的', '', '', '','','','','','','','','?','','',\
           '','','','','','','','','','','','','','', '\n','(',')','','','','便','','','','','','那里',\
           '','一个','','','','','','','','','','','','','','','你们','',''}

text3={}
for i in text2:
    text3[i]=text3.get(i,0)+1

for i in sign:
    if i in text3:
        del text3[i]

text4 =sorted(text3.items(),key=lambda x:x[1],reverse=True)
for i in range(20):
    print(text4[i])

posted @ 2018-03-28 17:09  186-叶晓钿  阅读(197)  评论(0编辑  收藏  举报