会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Luv_G.E.M
教练,我是自然语言处理插班生
博客园
首页
新随笔
联系
订阅
管理
2019年3月15日
中文分词实战——基于jieba动态加载字典和调整词频的电子病历分词
摘要: 分词是自然语言处理中最基本的一个任务,这篇小文章不介绍相关的理论,而是介绍一个电子病历分词的小实践。 开源的分词工具中,我用过的有jieba、hnlp和stanfordnlp,感觉jieba无论安装和使用都比较便捷,拓展性也比较好。是不是直接调用开源的分词工具,就可以得到比较好的分词效果呢?答案当然
阅读全文
posted @ 2019-03-15 16:44 Luv_GEM
阅读(6827)
评论(12)
推荐(2)
公告