—super—

博客园 首页 新随笔 联系 订阅 管理

2019年7月30日 #

摘要: 一、jieba介绍jieba库是一个简单实用的中文自然语言处理分词库。 jieba分词属于概率语言模型分词。概率语言模型分词的任务是:在全切分所得的所有结果中求某个切分方案S,使得P(S)最大。 jieba支持三种分词模式: 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决 阅读全文
posted @ 2019-07-30 14:29 —super— 阅读(2336) 评论(0) 推荐(1) 编辑

摘要: url: https://github.com/fxsjy/jieba/blob/master/ jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built 阅读全文
posted @ 2019-07-30 14:25 —super— 阅读(128) 评论(0) 推荐(0) 编辑