摘要: 结巴分词(自然语言处理之中文分词器) jieba分词算法使用了基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能生成词情况所构成的有向无环图(DAG), 再采用了动态规划查找最大概率路径,找出基于词频的最大切分组合,对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法。 j 阅读全文
posted @ 2019-01-05 14:38 柳帅 阅读(12795) 评论(2) 推荐(14)
//替换成自己路径的js文件