因陀罗

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

中文分词

  1. 下载一中文长篇小说,并转换成UTF-8编码。
  2. 使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。
  3. 排除一些无意义词、合并同一词。
  4. 对词频统计结果做简单的解读。 
import jieba
n=open('0.txt','r',encoding='utf-8').read()
words=list(jieba.cut(n))
exp={',','.','\n'}
keys=set(words)-exp
dic={}
for w in keys:
    if len(w)>1:
        dic[w]=words.count(w)

wc=list(dic.items())
wc.sort(key=lambda x:x[1],reverse=True)
for i in range(20):
    print(wc[i])

posted on 2017-09-29 12:13  068冯斐然  阅读(112)  评论(0)    收藏  举报