• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
Y-wee
博客园    首页    新随笔    联系   管理     

elasticsearch安装ik分词器插件

elasticsearch安装ik分词器插件

分词∶即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,这显然是不符合要求的,所以我们需要安装中文分词器ik来解决这个问题。

IK提供了两个分词算法:ik_ smart:最少切分、ik_max_word:最细粒度划分

安装ik分词器插件

  • github下载ik分词器插件压缩包,跟elasticsearch版本保持一致
  • 在elasticsearch目录下的plugins文件夹里新建文件夹,用来存放ik分词器插件
  • 将ik分词器压缩包解压到新建的文件夹中
  • 重启elasticsearch服务
  • 查看是否加载ik分词器插件
D:\java\es\elasticsearch-7.11.2-windows-x86_64\elasticsearch-7.11.2\bin>elasticsearch-plugin list
Future versions of Elasticsearch will require Java 11; your Java version from [D:\java\jdk\jre] does not meet this requirement. Consider switching to a distribution of Elasticsearch with a bundled JDK. If you are already using a distribution with a bundled JDK, ensure the JAVA_HOME environment variable is not set.
ik

打开kibana测试

ik_ smart:最少切分

ik_max_word:最细粒度划分(穷尽词库的可能)

ik分词器分的词可能达不到我们的需求,所以我们可以将自己需要的词加到分词器的字典中,在ik分词器中增加自己的配置

  • 在ik分词器插件的config目录下新建dic文件(dic文件就是字典),eg:yl.dic
  • 将自己需要的词添加到dic文件中
  • 打开IKAnalyzer.cfg.xml配置文件配置自己的字典
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict">yl.dic</entry>
  • 重启es服务以及kibana服务即可
记得快乐
posted @ 2021-03-21 15:07  Y-wee  阅读(203)  评论(0)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3