05 2016 档案
摘要:1. 用word_tokenize的时候说 u'tokenizers/punkt/english.pickle' not found. 我nltk.download(),想把所有的corpus下下来,但经常断。于是手动在网站上把corpora下下来,但还是说不对。 其实只要nltk.download
阅读全文
摘要:在用http://muricoca.github.io/crab/tutorial.html 里给的例子时,会发现不能运行,改库里的两个小地方就好了。 1. no module named learn: 把scikit.base里的from scikit.learn.base改成from sklea
阅读全文

浙公网安备 33010602011771号