会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
醉 曦
心迷则此岸,心悟则彼岸!
博客园
首页
新随笔
联系
订阅
管理
2018年6月24日
python使用jieba实现中文文档分词和去停用词
摘要: 分词工具的选择: 现在对于中文分词,分词工具有很多种,比如说:jieba分词、thulac、SnowNLP等。在这篇文档中,笔者使用的jieba分词,并且基于python3环境,选择jieba分词的理由是其比较简单易学,容易上手,并且分词效果还很不错。 分词前的准备: 待分词的中文文档 存放分词之后
阅读全文
posted @ 2018-06-24 17:36 醉曦
阅读(85967)
评论(21)
推荐(21)