• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
J芷璇
博客园    首页    新随笔    联系   管理    订阅  订阅

中文词频统计

中文分词

1.下载一中文长篇小说,并转换成UTF-8编码。(要在文件下面将格式转换。)

2.使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。

3.排除一些无意义词、合并同一词。

4.对词频统计结果做简单的解读。

import jieba
txt = open('小说.txt','r',encoding='utf-8').read()
words=list(jieba.cut(txt))
print('列表如下:',words)

exp={',?!'}#创建新的集合

keys=set(words)-exp#排除无意义词,合并同一词

dic={}
for a in keys:#只保留两位以上的词
    if len(a)>1:
        dic[a]=words.count(a)
        

c=list(dic.items())#解读词频
c.sort(key=lambda x:x[1],reverse=True)


for i in range(20):#输出前20
        print(c[i])
posted @ 2017-09-29 11:55  089江芷璇  阅读(179)  评论(0)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3