05 2016 档案

摘要:1. 用word_tokenize的时候说 u'tokenizers/punkt/english.pickle' not found. 我nltk.download(),想把所有的corpus下下来,但经常断。于是手动在网站上把corpora下下来,但还是说不对。 其实只要nltk.download 阅读全文
posted @ 2016-05-12 17:09 白天黑夜每日c 阅读(183) 评论(0) 推荐(0)
摘要:在用http://muricoca.github.io/crab/tutorial.html 里给的例子时,会发现不能运行,改库里的两个小地方就好了。 1. no module named learn: 把scikit.base里的from scikit.learn.base改成from sklea 阅读全文
posted @ 2016-05-02 17:30 白天黑夜每日c 阅读(312) 评论(0) 推荐(0)