摘要: # 文字特征提取 词库模型(bag of words) 2016年2月26,星期五 # 1.词库表示法 In [9]: # sklearn 的 CountVectorizer类能够把文档词块化(tokenize),代码如下 from sklearn.feature_extraction.text i 阅读全文
posted @ 2016-02-26 16:57 HaichaoON 阅读(10857) 评论(1) 推荐(0)