会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
123_4
博客园
首页
新随笔
联系
订阅
管理
2020年11月14日
jieba 分词
摘要: import jieba txt = open("西游记1.txt", "r", encoding='utf-8').read() words = jieba.lcut(txt) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for word i
阅读全文
posted @ 2020-11-14 19:32 123_4
阅读(88)
评论(0)
推荐(0)
公告