三、添加中文分词

没有中文分词

 
默认情况下是没有中文分词的,如图所示,通过点击左边的how2java->Analysis 然后输入 四川省成都市动物园,得到是按照每个字的分词效果
没有中文分词

配置中文分词

 
接下来为 Solr 准备中文分词
 

下载 IKAnalyzer6.5.0.jar

 
从右上角下载 IKAnalyzer6.5.0.jar,然后复制到如下目录:
 
D:\software\solr-7.2.1\server\solr-webapp\webapp\WEB-INF\lib
 
下载 IKAnalyzer6.5.0.jar

增加新的字段类型

 
修改配置文件 managed-schema:
 
D:\software\solr-7.2.1\server\solr\how2java\conf\managed-schema
 

在<schema...> 标签下增加如下代码
 
<fieldType name="text_ik" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
<field name="text_ik" type="text_ik" indexed="true" stored="true" multiValued="false" />
 

下面贴出来完整的修改之后的,不放心的就直接复制完整的覆盖
 
D:\software\solr-7.2.1\server\solr\how2java\conf\managed-schema
 
 
增加新的字段类型

重启 Solr

 
使用如下命令重启
 
cd D:\software\solr-7.2.1\bin
d:
solr.cmd stop -all
solr.cmd start
 
重启 Solr

重新测试分词

 
如图所示,使用中文分词后,就可以看到分词的效果了。
注: FieldType 记得选增加新的字段类型 中的 text_ik
重新测试分词

posted on 2019-01-04 10:57  我是司  阅读(164)  评论(0)    收藏  举报

导航