中文词频统计

中文分词

  1. 下载一中文长篇小说,并转换成UTF-8编码。
  2. 使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。
  3. 排除一些无意义词、合并同一词。
  4. 对词频统计结果做简单的解读。
    #导入jieba库
    import jieba
    #将导入的小说,将其转换成utf8编码
    news=open('book1.txt','r',encoding='utf-8').read()
    
    words=list(jieba.cut(news))#将小说分成一个一个词语
    #排除无意义的词
    exp={'','没有','甚么','自己', '因为','可以','他们','所以','觉得',
         '可能','一个','知道','不是','这个','这么', '这种','已经','回答','虽然',
        '但是', '我们', '应该','如果','无法','之后','看着','那个','怎么','一下',
         '这里','这样',}
    
    #字典
    dic={}
    keys=set(words)-exp
    for w in keys:
        if len(w)>1:
           dic[w]=words.count(w)
    wc=list(dic.items())
    wc.sort(key=lambda x:x[1],reverse=True)
    for i in range(20):
        print(wc[i])

通过分析,可以知道浩介是主角,主要是讲浪矢杂货铺帮忙解决问题,

posted @ 2017-09-29 14:26  爱学习的土豆  阅读(148)  评论(0)    收藏  举报