中文词频统计

下载一长篇中文文章。

从文件读取待分析文本。

news = open('gzccnews.txt','r',encoding = 'utf-8')

安装与使用jieba进行中文分词。

pip install jieba

import jieba

list(jieba.lcut(news))

生成词频统计

排序

排除语法型词汇,代词、冠词、连词

输出词频最大TOP20

import jieba

news = open('news.txt','r').read()

news_cut = jieba.lcut(news)

dict = {}

for i in set(news_cut):
    dict[i]=news_cut.count(i)
    delete={'','','','','','','','', ' ','','','','','','','','','','','','.','','','','\n','','','','','对于'}

for i in delete:
    if i in dict:
        del dict[i]

nesw_print = sorted(dict.items(), key = lambda d:d[1], reverse = True)

for i in range(10):
    print(nesw_print[i])

posted @ 2018-03-28 17:14  lawliet9  阅读(134)  评论(0编辑  收藏  举报