摘要: ###前提 准备3台虚拟机 192.168.174.144 192.168.174.145 192.168.174.146 按照下面方式把es给安装起来 https://www.cnblogs.com/hardy-wang/p/13858783.html 1.进入192.168.174.144机器配 阅读全文
posted @ 2020-10-23 18:12 橙宝技术 阅读(677) 评论(0) 推荐(0)
摘要: ##深度分页 深度分页其实就是搜索的深浅度,比如第1页,第2页,第10页,第20页,是比较浅的;第10000页,第20000页就是很深了。 使用如下操作: { "query": { "match_all": {} }, "from": 9999, "size": 10 } 我们在获取第9999条到1 阅读全文
posted @ 2020-10-23 17:19 橙宝技术 阅读(1171) 评论(0) 推荐(0)
摘要: ![](https://img2020.cnblogs.com/blog/2044016/202010/2044016-20201023170918333-59542711.png) 阅读全文
posted @ 2020-10-23 17:10 橙宝技术 阅读(248) 评论(0) 推荐(0)
摘要: ###1. 在/plugins/ik/config下,创建: vim custom.dic ###2. 并且添加内容: 慕课网 骚年 ###3.配置自定义扩展词典 vim IKAnalyzer.cfg.xml 配置如下 <entry key="ext_dict">custom.dic</entry> 阅读全文
posted @ 2020-10-23 13:05 橙宝技术 阅读(993) 评论(0) 推荐(0)
摘要: ###1.去github下载zip包 具体地址:https://github.com/medcl/elasticsearch-analysis-ik 因为我本地装的是7.4.2版本,我ik分词器也下载这个版本 地址:https://github.com/medcl/elasticsearch-ana 阅读全文
posted @ 2020-10-23 12:47 橙宝技术 阅读(124) 评论(0) 推荐(0)
摘要: 什么是分词? 把文本转换为一个个的单词,分词称之为analysis。es默认只对英文语句做分词,中文不支持,每个中文字都会被拆分为独立的个体。 英文分词:I study in imooc.com 中文分词:我在慕课网学习 POST /_analyze { "analyzer": "standard" 阅读全文
posted @ 2020-10-23 12:11 橙宝技术 阅读(154) 评论(0) 推荐(0)
摘要: 1.插入新数据 POST /my_doc/_doc { "id": 1010, "name": "imooc-1010", "desc": "imoocimooc!", "create_date": "2019-12-24" } 此时 _version 为 1 2.修改数据 POST /my_doc 阅读全文
posted @ 2020-10-23 11:55 橙宝技术 阅读(682) 评论(0) 推荐(0)