中文词频统计
中文分词
- 下载一中文长篇小说,并转换成UTF-8编码。
- 使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。
- 排除一些无意义词、合并同一词。
- 对词频统计结果做简单的解读。
#导入jieba库 import jieba #将导入的小说,将其转换成utf8编码 news=open('book1.txt','r',encoding='utf-8').read() words=list(jieba.cut(news))#将小说分成一个一个词语 #排除无意义的词 exp={',','没有','甚么','自己', '因为','可以','他们','所以','觉得', '可能','一个','知道','不是','这个','这么', '这种','已经','回答','虽然', '但是', '我们', '应该','如果','无法','之后','看着','那个','怎么','一下', '这里','这样',} #字典 dic={} keys=set(words)-exp for w in keys: if len(w)>1: dic[w]=words.count(w) wc=list(dic.items()) wc.sort(key=lambda x:x[1],reverse=True) for i in range(20): print(wc[i])
![]()
通过分析,可以知道浩介是主角,主要是讲浪矢杂货铺帮忙解决问题,


浙公网安备 33010602011771号