Stanford CoreNLP--Split Sentence

分句功能参考 Stanford Tokenizer

在edu.stanford.nlp.pipeline包中实现了一系列分词分句功能,其中SentenceAnnotator类实现了对文件分句功能.

运行Demo程序:在edu.stanford.nlp.pipeline.demo包中找到StanfordCoreNlpDemo类,设置propsprops.setProperty("annotators", "tokenize,ssplit"); ssplit表示分句,设置Arguments为要分句的文件,默认以句号+空格分句,输出如下:

posted @ 2016-05-13 14:28  大刀客  阅读(2975)  评论(0编辑  收藏  举报