ElasticSearch-全文检索

ElasticSearch-全文检索

简介

https://www.elastic.co/cn/what-is/elasticsearch
全文搜索属于最常见的需求,开源的 Elasticsearch 是目前全文搜索引擎的首选。
它可以快速地储存、搜索和分析海量数据。维基百科、StackOverflow、Github 都采用它

Elastic 的底层是开源库 Lucene。但是,你没法直接用 Lucene,必须自己写代码去调用它的
接口。Elastic 是Lucene的封装,提供了 RESTAPI的操作接口,开箱即用。
RESTAPI:天然的跨平台。
官方文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/index.html
官方中文:https://www.elastic.co/guide/cn/elasticsearch/guide/current/foreword_id.html
社区中文:
https://es.xiaoleilu.com/index.html
http://doc.codingdict.com/elasticsearch/0/

一、基本概念

1 、Index(索引)

动词,相当于MySQL中的insert;
名词,相当于MySQL中的Database

2 、Type(类型)

在 Index(索引)中,可以定义一个或多个类型。
类似于MySQL中的Table;每一种类型的数据放在一起;

3 、Document(文档)

保存在某个索引(Index)下,某种类型(Type)的一个数据(Document),文档是JSON格
式的,Document就像是MySQL中的某个Table里面的内容;

4 、倒排索引机制

二、Docker 安装 Es

1、下载镜像文件

docker pull elasticsearch:7.4.2 存储和检索数据
docker pull kibana:7.4.2 可视化检索数据

2、创建实例

1、ElasticSearch

mkdir -p /mydata/elasticsearch/config
mkdir -p /mydata/elasticsearch/data
echo "http.host: 0.0.0.0 " >> /mydata/elasticsearch/config/elasticsearch.yml

chmod -R 777 /mydata/elasticsearch/ 保证权限

docker run --name elasticsearch -p 9200:9200 -p 9300:9300 \
-e "discovery.type=single-node" \
-e ES_JAVA_OPTS="-Xms64m -Xmx512m" \
-v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v /mydata/elasticsearch/data:/usr/share/elasticsearch/data \
-v /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
-d elasticsearch:7.4.2

以后再外面装好插件重启即可;

特别注意:
-e ES_JAVA_OPTS="-Xms6m -Xmx512m"\ 测试环境下,设置 ES 的初始内存和最大内存,否则导致过大启动不了 ES

2、Kibana

docker run --name kibana -e ELASTICSEARCH_HOSTS=http://192.168.56.10:9200 -p 5601:5601 \
-d kibana:7.4.2

http://192.168.56.10:9200 一定改为自己虚拟机的地址

三、初步检索

1、_cat

GET /_cat/nodes: 查看所有节点
GET /_cat/health: 查看es健康状况
GET /_cat/master: 查看主节点
GET /_cat/indices: 查看所有索引 show databases;

2、索引一个文档(保存)

保存一个数据,保存在哪个索引的哪个类型下,指定用哪个唯一标识
PUT customer/external/1;在 customer 索引下的external类型下保存 1 号数据为

PUT customer/external/1
{
  "name":"John Doe"
}

PUT 和 POST 都可以,
POST 新增。如果不指定id,会自动生成id。指定id就会修改这个数据,并新增版本号

PUT 可以新增可以修改。PUT必须指定id;由于PUT需要指定id,我们一般都用来做修改操作,不指定id会报错。

3、查询文档

GET customer/external/1

结果:

{
  "_index":"customer",   //在哪个索引
  "_type":"external",   //在哪个类型
  "_id":" 1 ",   //记录id
  "_version": 2,   //版本号
  "_seq_no": 1,   //并发控制字段,每次更新就会 +1,用来做乐观锁
  "_primary_term": 1,   //同上,主分片重新分配,如重启,就会变化
  "found":true,
  "_source":{   //真正的内容
    "name":"John Doe"
  }
}

更新携带 ?if_seq_no=0&if_primary_term=1

4、更新文档

POST customer/external/1/_update
{
  "doc":{
    "name":"John Doew"
  }
}

或者

POST customer/external/1/
{
  "name":"John Doe2"
}

或者

PUT customer/external/1
{
  "name":"John Doe"
}
  • 不同:POST 操作会对比源文档数据,如果相同不会有什么操作,文档 version 不增加;PUT操作总会将数据重新保存并增加 version 版本;

    • 带 _update 对比元数据如果一样就不进行任何操作。
    • 看场景:
      • 对于大并发更新,不带 update;
      • 对于大并发查询偶尔更新,带 update;对比更新,重新计算分配规则。
  • 更新同时增加属性

POST customer/external/1/_update
{
  "doc":{"name":"Jane Doe","age":20 }
}

PUT 和 POST 不带_update也可以

5、删除文档&索引

DELETE customer/external/1
DELETE customer

6、bulk 批量 API

POST customer/external/_bulk
{"index":{"_id":"1"}}
{"name":"John Doe"}
{"index":{"_id":"2"}}
{"name":"Jane Doe"}

语法格式:
{action:{metadata}}\n
{request body }\n

{action:{metadata}}\n
{request body }\n

复杂实例:

POST /_bulk
{"delete":{"_index":"website","_type":"blog","_id":"123"}}
{"create":{"_index":"website","_type":"blog","_id":"123"}}
{"title": "My first blog post"}
{"index": {"_index":"website","_type":"blog"}}
{"title": "My second blog post"}
{"update":{"_index":"website","_type":"blog","_id":"123","_retry_on_conflict":3}}
{"doc":{"title":"My updated blog post"}}

bulk API 以此按顺序执行所有的 action(动作)。如果一个单个的动作因任何原因而失败,
它将继续处理它后面剩余的动作。当 bulk API 返回时,它将提供每个动作的状态(与发送
的顺序相同),所以您可以检查是否一个指定的动作是不是失败了。

7、样本测试数据

我准备了一份顾客银行账户信息的虚构的 JSON 文档样本。每个文档都有下列的 schema(模式):

{
  "account_number":0,
  "balance":16623,
  "firstname":"Bradshaw",
  "lastname":"Mckenzie",
  "age":29,
  "gender":"F",
  "address":"244 Columbus Place",
  "employer":"Euron",
  "email":"bradshawmckenzie@euron.com",
  "city":"Hobucken",
  "state":"CO"
}

https://gitee.com/lqs0911/common_module/blob/master/es测试数据.json 导入测试数据
POST bank/account/_bulk
测试数据

四、进阶检索

1、SearchAPI

ES支持两种基本方式检索 :

  • 一个是通过使用 REST request URI 发送搜索参数(uri+检索参数)
  • 另一个是通过使用 REST request body 来发送它们(uri+请求体)

1)、检索信息

  • 一切检索从_search开始

GET bank/_search 检索 bank 下所有信息,包括type和docs
GET bank/_search?q=*&sort=account_number:asc 请求参数方式检索

响应结果解释:
took-Elasticsearch 执行搜索的时间(毫秒)
time_out- 告诉我们搜索是否超时
_shards- 告诉我们多少个分片被搜索了,以及统计了成功/失败的搜索分片
hits- 搜索结果
hits.total- 搜索结果
hits.hits- 实际的搜索结果数组(默认为前 10 的文档)
sort- 结果的排序key(键)(没有则按 score 排序)
score 和 max_score– 相关性得分和最高得分(全文检索用)

  • uri+请求体进行检索

GET bank/_search

{
  "query":{
    "match_all":{}
  },
  "sort":[
    {
      "account_number":{
        "order":"desc"
      }
    }
  ]
}

HTTP客户端工具(POSTMAN),get请求不能携带请求体,我们变为post也是一样的
我们 POST 一个 JSON 风格的查询请求体到 _searchAPI
需要了解,一旦搜索的结果被返回, Elasticsearch 就完成了这次请求,并且不会维护任何服务端的资源或者结果的 cursor (游标)

2、QueryDSL

1)、基本语法格式

Elasticsearch 提供了一个可以执行查询的 Json 风格的 DSLdomain-specificlanguage 领域特定语言)。这个被称为QueryDSL。该查询语言非常全面,并且刚开始的时候感觉有点复杂,真正学好它的方法是从一些基础的示例开始的。

  • 一个查询语句 的典型结构
{
  QUERY_NAME:{
    ARGUMENT:VALUE,
    ARGUMENT:VALUE,...
  }
}
  • 如果是针对某个字段,那么它的结构如下:
{
  QUERY_NAME:{
    FIELD_NAME:{
      ARGUMENT:VALUE,
      ARGUMENT:VALUE,...
    }
  }
}

GET bank/_search

{
  "query":{
    "match_all":{}
  },
  "from":0,
  "size":5,
  "sort":[
    {
      "account_number":{
        "order":"desc"
      }
    }
  ]
}
  • query定义如何查询,
  • match_all 查询类型【代表查询所有的所有】,es中可以在query中组合非常多的查询类型完成复杂查询
  • 除了 query参数之外,我们也可以传递其它的参数以改变查询结果。如sort,size
  • from+size限定,完成分页功能
  • sort排序,多字段排序,会在前序字段相等时后续字段内部排序,否则以前序为准

2)、返回部分字段

GET bank/_search

{
  "query":{
    "match_all":{}
  },
  "from":0,
  "size":5,
  "_source":["age","balance"]
}

3)、match【匹配查询】

  • 基本类型(非字符串),精确匹配

GET bank/_search

{
  "query":{
    "match":{
      "account_number":"20"
    }
  }
}

match 返回 account_number=20 的

  • 字符串,全文检索

GET bank/_search

{
  "query":{
    "match":{
      "address":"mill"
    }
  }
}

最终查询出address中包含mill单词的所有记录
match当搜索字符串类型的时候,会进行全文检索,并且每条记录有相关性得分。

  • 字符串,多个单词(分词+全文检索)
    GET bank/_search
{
  "query":{
    "match":{
      "address":"mill road"
    }
  }
}
## 全文检索按照评分进行排序,会对检索条件进行分词匹配

最终查询出address中包含mill或者road或者mill road的所有记录,并给出相关性得分

4)、match_phrase【短语匹配】

将需要匹配的值当成一个整体单词(不分词)进行检索

GET bank/_search

{
  "query":{
    "match_phrase":{
      "address":"mill road"
    }
  }
}

查出address中包含mill road的所有记录,并给出相关性得分

5)、multi_match【多字段匹配】

GET bank/_search

{
  "query":{
    "multi_match":{
      "query":"mill",
      "fields":["state","address"]
    }
  }
}

state或者address包含mill

6)、bool【复合查询】

bool用来做复合查询:
复合语句可以合并任何其它查询语句,包括复合语句,了解这一点是很重要的。这就意味着,复合语句之间可以互相嵌套,可以表达非常复杂的逻辑。

  • must:必须达到 must 列举的所有条件

GET bank/_search

{
  "query":{
    "bool":{
      "must":[
        {"match":{"address":"mill"}},
        {"match":{"gender":"M"}}
      ]
    }
  }
}
  • should:应该达到 should 列举的条件,如果达到会增加相关文档的评分,并不会改变查询的结果。如果query中只有should且只有一种匹配规则,那么should的条件就会被作为默认匹配条件而去改变查询结果

GET bank/_search

{
  "query":{
    "bool":{
      "must":[
        {"match":{"address":"mill"}},
        {"match":{"gender":"M"}}
      ],
      "should":[
        {"match":{"address":"lane"}}
      ]
    }
  }
}
  • must_not 必须不是指定的情况

GET bank/_search

{
  "query":{
    "bool":{
      "must":[
        {"match":{"address":"mill"}},
        {"match":{"gender":"M"}}
      ],
      "should":[
        {"match":{"address":"lane"}}
      ],
      "must_not":[
        {"match":{"email":"baluba.com"}}
      ]
    }
  }
}

address包含mill,并且gender是M,如果address里面有lane最好不过,但是email必须不包含baluba.com

7)、filter【结果过滤】

并不是所有的查询都需要产生分数,特别是那些仅用于 “filtering”(过滤)的文档。为了不
计算分数 Elasticsearch 会自动检查场景并且优化查询的执行。
GET bank/_search

{
  "query":{
    "bool":{
      "must":[
        {"match":{"address":"mill"}}
      ],
      "filter":{
        "range":{
          "balance":{
            "gte":10000,
            "lte":20000
          }
        }
      }
    }
  }
}

8)、term

和match一样。匹配某个属性的值。全文检索字段用 match ,其他非 text 字段匹配用 term。

GET bank/_search

{
  "query":{
    "bool":{
      "must":[
        {"term":{
          "age":{
          "value":"28"
          }
        }},
        {"match":{
          "address":"990 Mill Road"
        }}
      ]
    }
  }
}

9)、aggregations(执行聚合)

聚合提供了从数据中分组和提取数据的能力。最简单的聚合方法大致等于 SQL GROUP BYSQL 聚合函数。在 Elasticsearch 中,您有执行搜索返回 hits (命中结果),并且同时返回聚合结果,把一个响应中的所有 hits (命中结果)分隔开的能力。这是非常强大且有效的,您可以执行查询和多个聚合,并且在一次使用中得到各自的(任何一个的)返回结果,使用一次简洁和简化的 API 来避免网络往返。

  • 搜索 address 中包含 mill 的所有人的年龄分布以及平均年龄,但不显示这些人的详情。

GET bank/_search

{
  "query":{
    "match":{
      "address":"mill"
    }
  },
  "aggs":{
    "group_by_state":{
      "terms":{
        "field":"age"
      }
    },
    "avg_age":{
      "avg":{
        "field":"age"
      }
    }
  },
  "size": 0
}

size: 0 不显示搜索数据
aggs:执行聚合。聚合语法如下
"aggs":{
"aggs_name 这次聚合的名字,方便展示在结果集中":{
"AGG_TYPE 聚合的类型(avg,term,terms)":{}
}
},

复杂:
按照年龄聚合,并且请求这些年龄段的这些人的平均薪资

GET bank/account/_search

{
  "query":{
    "match_all":{}
  },
  "aggs":{
    "age_avg":{
      "terms":{
        "field":"age",
        "size": 1000
      },
      "aggs":{
        "banlances_avg":{
          "avg":{
            "field":"balance"
          }
        }
      }
    }
  }
  ,
  "size": 1000
}

复杂:查出所有年龄分布,并且这些年龄段中 M 的平均薪资和 F 的平均薪资以及这个年龄段的总体平均薪资

GET bank/account/_search

{
  "query":{
    "match_all":{}
  },
  "aggs":{
  "age_agg":{
    "terms":{
      "field":"age",
      "size": 100
    },
    "aggs":{
      "gender_agg":{
        "terms":{
          "field":"gender.keyword",
          "size": 100
        },
        "aggs":{
          "balance_avg":{
            "avg":{
              "field":"balance"
            }
          }
        }
      },
      "balance_avg":{
        "avg":{
          "field":"balance"
          }
        }
      }
    }
  }
  ,
  "size": 1000
}

3 、Mapping

1)、字段类型

2)、映射

Mapping(映射)
Mapping 是用来定义一个文档( document ),以及它所包含的属性( field )是如何存储和
索引的
。比如,使用mapping来定义:

  • 哪些字符串属性应该被看做全文本属性(full text fields)。
  • 哪些属性包含数字,日期或者地理位置。
  • 文档中的所有属性是否都能被索引(_all 配置)。
  • 日期的格式。
  • 自定义映射规则来执行动态添加属性。
  • 查看mapping信息:

GET bank/_mapping

  • 修改mapping信息

https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping.html

自动猜测的映射类型

3)、新版本改变

Es7 及以上移除了type的概念。

  • 关系型数据库中两个数据表示是独立的,即使他们里面有相同名称的列也不影响使用,但ES中不是这样的。elasticsearch是基于Lucene开发的搜索引擎,而ES中不同type下名称相同的filed最终在Lucene中的处理方式是一样的。
    • 两个不同type下的两个user_name,在ES同一个索引下其实被认为是同一个filed,你必须在两个不同的type中定义相同的filed映射。否则,不同type中的相同字段名称就会在处理中出现冲突的情况,导致Lucene处理效率下降。
    • 去掉type就是为了提高ES处理数据的效率。

Elasticsearch 7.x

  • URL中的type参数为可选。比如,索引一个文档不再要求提供文档类型。

Elasticsearch 8.x

  • 不再支持URL中的type参数。

解决:
1)、将索引从多类型迁移到单类型,每种类型文档一个独立索引
2)、将已存在的索引下的类型数据,全部迁移到指定位置即可。详见数据迁移

1 、创建映射

1、创建索引并指定映射

PUT /my-index

{
  "mappings":{
    "properties":{
      "age": {"type":"integer"},
      "email": {"type":"keyword" },
      "name": {"type":"text" }
    }
  }
}
2、添加新的字段映射

PUT /my-index/_mapping

{
  "properties":{
    "employee-id":{
      "type":"keyword",
      "index":false
    }
  }
}
3、更新映射

对于已经存在的映射字段,我们不能更新。更新必须创建新的索引进行数据迁移

4、数据迁移

先创建出 new_twitter 的正确映射。然后使用如下方式进行数据迁移

POST _reindex [固定写法]

{
  "source":{
    "index":"twitter"
  },
  "dest":{
    "index":"new_twitter"
  }
}

将旧索引的 type 下的数据进行迁移
POST _reindex

{
  "source":{
    "index":"twitter",
    "type":"tweet"
  },
  "dest":{
    "index":"tweets"
  }
}

4 、分词

一个 tokenizer (分词器)接收一个字符流,将之分割为独立的 tokens (词元,通常是独立的单词),然后输出 tokens 流。
例如,whitespace tokenizer 遇到空白字符时分割文本。它会将文本" Quickbrownfox! "分割为[ Quick , brown , fox! ]。
tokenizer (分词器)还负责记录各个 term (词条)的顺序或 position 位置(用于 phrase 短语和 wordproximity 词近邻查询),以及 term (词条)所代表的原始 word (单词)的 start(起始)和 end (结束)的 characteroffsets (字符偏移量)(用于高亮显示搜索的内容)。
Elasticsearch 提供了很多内置的分词器,可以用来构建customanalyzers(自定义分词器)。

1)、安装 ik 分词器

注意:不能用默认elasticsearch-plugin installxxx.zip 进行自动安装
https://github.com/medcl/elasticsearch-analysis-ik/releases?after=v6.4.2 对应es版本安装

进入es容器内部 plugins目录
dockerexec-it 容器 id/bin/bash
wget
https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.4.2/elasticsearch-analysis-ik-7.4.2.zip
unzip 下载的文件
rm –rf *.zip
mv elasticsearch/ ik

可以确认是否安装好了分词器
cd ../bin
elasticsearch plugin list:即可列出系统的分词器

2)、测试分词器

使用默认

POST _analyze

{
  "text":"我是中国人"
}

请观察结果
使用分词器
POST _analyze

{
  "analyzer":"ik_smart",
  "text":"我是中国人"
}

请观察结果
另外一个分词器 ik_max_word
POST _analyze

{
  "analyzer":"ik_max_word",
  "text":"我是中国人"
}

请观察结果
能够看出不同的分词器,分词有明显的区别,所以以后定义一个索引不能再使用默认的mapping了,要手工建立mapping,因为要选择分词器。

3)、自定义词库

修改/usr/share/elasticsearch/plugins/ik/config/中的IKAnalyzer.cfg.xml
/usr/share/elasticsearch/plugins/ik/config

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
  <comment>IK Analyzer 扩展配置</comment>
  <!--用户可以在这里配置自己的扩展字典 -->
  <entrykey="ext_dict"></entry>
  <!--用户可以在这里配置自己的扩展停止词字典-->
  <entrykey="ext_stopwords"></entry>
  <!--用户可以在这里配置远程扩展字典 -->
  <entrykey="remote_ext_dict">http://192.168.128.130/fenci/myword.txt</entry>
  <!--用户可以在这里配置远程扩展停止词字典-->
  <!--<entrykey="remote_ext_stopwords">words_location</entry>-->
</properties>

原来的xml

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
  <comment>IK Analyzer 扩展配置</comment>
  <!--用户可以在这里配置自己的扩展字典 -->
  <entrykey="ext_dict"></entry>
  <!--用户可以在这里配置自己的扩展停止词字典-->
  <entrykey="ext_stopwords"></entry>
  <!--用户可以在这里配置远程扩展字典 -->
  <!--<entrykey="remote_ext_dict">words_location</entry>-->
  <!--用户可以在这里配置远程扩展停止词字典-->
  <!--<entrykey="remote_ext_stopwords">words_location</entry>-->
</properties>

按照标红的路径利用nginx发布静态资源,按照请求路径,创建对应的文件夹以及文件,放在nginx的html下

然后重启es服务器,重启nginx。
在kibana中测试分词效果

更新完成后,es只会对新增的数据用新词分词。历史数据是不会重新分词的。如果想要历史数据重新分词。需要执行:
POST my_index/_update_by_query?conflicts=proceed

五、Elasticsearch-Rest-Client

1)、9300:TCP

  • spring-data-elasticsearch:transport-api.jar;
    • springboot版本不同, transport-api.jar 不同,不能适配 es 版本
    • 7.x已经不建议使用, 8 以后就要废弃

2)、9200:HTTP

  • JestClient:非官方,更新慢
  • RestTemplate:模拟发 HTTP 请求,ES 很多操作需要自己封装,麻烦
  • HttpClient:同上
  • Elasticsearch-Rest-Client:官方 RestClient,封装了 ES 操作,API 层次分明,上手简单

最终选择Elasticsearch-Rest-Client(elasticsearch-rest-high-level-client)
https://www.elastic.co/guide/en/elasticsearch/client/java-rest/current/java-rest-high.html

1、SpringBoot整合

  <dependency>
    <groupId>org.elasticsearch.client</groupId>
    <artifactId>elasticsearch-rest-high-level-client</artifactId>
    <version>7.4.2</version>
  </dependency>

2、配置

/**
 * 1、导入依赖
 * 2、编写配置,给容器中注入一个RestHighLevelClient
 * 3、参照官方API
 * @Author: Kisen
 * @Date: 2022/3/18 15:20
 */
@Configuration
public class GulimallElasticSearchConfig {

    public static final RequestOptions COMMON_OPTIONS;

    static {
        RequestOptions.Builder builder = RequestOptions.DEFAULT.toBuilder();
//        builder.addHeader("Authorization", "Bearer " + TOKEN);
//        builder.setHttpAsyncResponseConsumerFactory(
//                new HttpAsyncResponseConsumerFactory
//                        .HeapBufferedResponseConsumerFactory(30 * 1024 * 1024 * 1024));
        COMMON_OPTIONS = builder.build();
    }

    @Bean
    public RestHighLevelClient esRestClient() {
        RestClientBuilder builder = null;
        //final String hostname, final int port, final String scheme
        builder = RestClient.builder(new HttpHost("192.168.56.10", 9200, "http"));
        RestHighLevelClient client = new RestHighLevelClient(builder);
//        RestHighLevelClient client = new RestHighLevelClient(
//                RestClient.builder(
//                        new HttpHost("192.169.56.10", 9200, "http")));
        return client;
    }

}

3、使用

参照官方文档:


    @Autowired
    private RestHighLevelClient client;

    @Data
    class Account {
        private int account_number;
        private int balance;
        private String firstname;
        private String lastname;
        private int age;
        private String gender;
        private String address;
        private String employer;
        private String email;
        private String city;
        private String state;
    }

    @Test
    void searchData() throws IOException {
        //1、创建检索请求
        SearchRequest searchRequest = new SearchRequest();
        //指定索引
        searchRequest.indices("bank");
        //指定DSL,索引条件
        //SearchSourceBuilder sourceBuilder 封装的条件
        SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();
        //1.1、检索条件
//        sourceBuilder.query();
//        sourceBuilder.from();
//        sourceBuilder.size();
//        sourceBuilder.aggregation();
        sourceBuilder.query(QueryBuilders.matchQuery("address", "mill"));

        //1.2、按照年龄的值分布进行聚合
        TermsAggregationBuilder ageAgg = AggregationBuilders.terms("ageAgg").field("age").size(10);
        sourceBuilder.aggregation(ageAgg);

        //1.3、计算平均薪资
        AvgAggregationBuilder balanceAvg = AggregationBuilders.avg("balanceAvg").field("balance");
        sourceBuilder.aggregation(balanceAvg);

        System.out.println("检索条件:" + sourceBuilder.toString());
        searchRequest.source(sourceBuilder);

        //2、执行检索:
        SearchResponse searchResponse = client.search(searchRequest, GulimallElasticSearchConfig.COMMON_OPTIONS);

        //3、分析结果 searchResponse
        System.out.println(searchResponse.toString());
//        Map map = (Map) JSONUtil.toBean(searchResponse.toString(), Map.class);
        //3.1、获取所有查到的数据
        SearchHits hits = searchResponse.getHits();
        SearchHit[] searchHits = hits.getHits();
        for (SearchHit hit : searchHits) {
            /**
             *         "_index" : "bank",
             *         "_type" : "account",
             *         "_id" : "970",
             *         "_score" : 5.4032025,
             *         "_source" :
             */
//            hit.getIndex();hit.getType();hit.getId();
            String string = hit.getSourceAsString();
            Account account = JSONUtil.toBean(string, Account.class);
            System.out.println("account: " + account.toString());
        }

        //3.2、获取这次检索到的分析信息
        Aggregations aggregations = searchResponse.getAggregations();
//        for (Aggregation aggregation : aggregations.asList()) {
//            System.out.println("当前聚合:"+aggregation.getName());
////            aggregation.get
//        }
        Terms ageAgg1 = aggregations.get("ageAgg");
        for (Terms.Bucket bucket : ageAgg1.getBuckets()) {
            String keyAsString = bucket.getKeyAsString();
            System.out.println("年龄:" + keyAsString + "==>" + bucket.getDocCount());
        }

        Avg balanceAvg1 = aggregations.get("balanceAvg");
        System.out.println("平均薪资:" + balanceAvg1.getValue());
    }

    /**
     * 测试存储数据到es
     * 更新也可以
     */
    @Test
    void indexData() throws IOException {
        IndexRequest indexRequest = new IndexRequest("users");
        indexRequest.id("1");//数据的id
//        indexRequest.source("userName", "zhangsan", "age", 18, "gender", "男");
        User user = new User();
        user.setUserName("zhangsan");
        user.setAge(18);
        user.setGender("男");
        String jsonStr = JSONUtil.toJsonStr(user);
        indexRequest.source(jsonStr, XContentType.JSON); //要保存的内容

        //执行操作
        IndexResponse index = client.index(indexRequest, GulimallElasticSearchConfig.COMMON_OPTIONS);

        //提取有用的响应数据
        System.out.println(index);
    }

    @Data
    class User {
        private String userName;
        private String gender;
        private Integer age;
    }

    @Test
    void contextLoads() {
        System.out.println(client);
    }

4、商城检索服务-构建DSL

业务分析:检索条件

  • 全文检索:skuTitle
  • 过滤:catalogId、brandId、attrs、hasStock、skuPrice区间
  • 排序:saleCount、hotScore、skuPrice
  • 分页、高亮(skuTitle)
  • 聚合:品牌聚合、分类聚合、属性聚合

完整的url参数

  • keyword=小米&sort=saleCount_desc/asc&hasStock=0/1&skuPrice=400_1900&brandId=1&catalogId=1&attrs=1_3G:4G:5G&attrs=2_骁龙845&attrs=4_高清屏

4.1、更改index

PUT gulimall_product
{
  "mappings": {
    "properties": {
      "attrs": {
        "type": "nested",
        "properties": {
          "attrId": {
            "type": "long"
          },
          "attrName": {
            "type": "keyword"
          },
          "attrValue": {
            "type": "keyword"
          }
        }
      },
      "brandId": {
        "type": "long"
      },
      "brandImg": {
        "type": "keyword"
      },
      "brandName": {
        "type": "keyword"
      },
      "catalogId": {
        "type": "long"
      },
      "catalogName": {
        "type": "keyword"
      },
      "hasStock": {
        "type": "boolean"
      },
      "hotScore": {
        "type": "long"
      },
      "saleCount": {
        "type": "long"
      },
      "skuId": {
        "type": "long"
      },
      "skuImg": {
        "type": "keyword"
      },
      "skuPrice": {
        "type": "keyword"
      },
      "skuTitle": {
        "type": "text",
        "analyzer": "ik_smart"
      },
      "spuId": {
        "type": "keyword"
      }
    }
  }
}

GET gulimall_product/_search
迁移数据

POST _reindex
{
  "source": {
    "index": "product"
  },
  "dest": {
    "index": "gulimall_product"
  }
}

4.2、构建DSL查询、聚合分析

模糊匹配,过滤(按照属性,分类,品牌,价格区间,库存),排序,分页,高亮,聚合分析

如果是嵌入式的属性,查询,聚合,分析都应该用嵌入式的

GET gulimall_product/_search
{
  "query": {
    "bool": {
      "must": [
        {
          "match": {
            "skuTitle": "华为"
          }
        }
      ],
      "filter": [
        {
          "term": {
            "catalogId": "225"
          }
        },
        {
          "terms": {
            "brandId": [
              "1",
              "4",
              "7"
            ]
          }
        },
        {
          "nested": {
            "path": "attrs",
            "query": {
              "bool": {
                "must": [
                  {
                    "term": {
                      "attrs.attrId": {
                        "value": "1"
                      }
                    }
                  },
                  {
                    "terms": {
                      "attrs.attrValue": [
                        "A2634",
                        "NOH-AL00/NOH-AL10"
                      ]
                    }
                  }
                ]
              }
            }
          }
        },
        {
          "term": {
            "hasStock": "true"
          }
        },
        {
          "range": {
            "skuPrice": {
              "gte": 0,
              "lte": 7000
            }
          }
        }
      ]
    }
  },
  "sort": [
    {
      "skuPrice": {
        "order": "desc"
      }
    }
  ],
  "from": 0,
  "size": 1,
  "highlight": {
    "fields": {
      "skuTitle": {}
    },
    "pre_tags": "<b style='color:red'>",
    "post_tags": "</b>"
  },
  "aggs": {
    "brand_agg": {
      "terms": {
        "field": "brandId",
        "size": 10
      },
      "aggs": {
        "brand_name_agg": {
          "terms": {
            "field": "brandName",
            "size": 10
          }
        },
        "brand_img_agg": {
          "terms": {
            "field": "brandImg",
            "size": 10
          }
        }
      }
    },
    "catalog_agg": {
      "terms": {
        "field": "catalogId",
        "size": 10
      },
      "aggs": {
        "catalog_name_agg": {
          "terms": {
            "field": "catalogName",
            "size": 10
          }
        }
      }
    },
    "attr_agg": {
      "nested": {
        "path": "attrs"
      },
      "aggs": {
        "attr_id_agg": {
          "terms": {
            "field": "attrs.attrId",
            "size": 10
          },
          "aggs": {
            "attr_name_agg": {
              "terms": {
                "field": "attrs.attrName",
                "size": 10
              }
            },
            "attr_value_agg": {
              "terms": {
                "field": "attrs.attrValue",
                "size": 10
              }
            }
          }
        }
      }
    }
  }
}

4.3、检索语句构建

4.3.1、请求参数模型
/**
 * @author Kisen
 * @email liuqs@jaid.cn
 * @date 2022/9/3 21:08
 * @detail 封装页面所有可能传递过来的查询条件
 * catalog3Id=225&keyword=huawei&sort=saleCount_asc&brandId=1&brandId=2
 */
@Data
public class SearchParam {

    private String keyword; //页面传递过来的全文匹配关键字
    private Long catalog3Id; //三级分类id

    /**
     * sort=saleCount_asc/desc
     * sort=skuPrice_asc/desc
     * sort=hotScore_asc/desc
     */
    private String sort; //排序条件

    /**
     * 好多的过滤条件
     * hasStock(是否有货)、skuPrice区间、brandId、catalogId、attrs
     * hasStock=0/1
     * skuPrice=1_500/_500/500_
     * brandId=1
     * attrs=1_其他:安卓&attrs=2_5寸:6寸
     */
    private Integer hasStock = 1; //是否只显示有货     0(无库存) 1(有库存)
    private String skuPrice; //价格区间查询
    private List<Long> brandId; //按照品牌进行查询,可以多选
    private List<String> attrs; //按照属性进行筛选
    private Integer pageNum = 1; //页码

}
4.3.2、构建参数
    /**
     * 准备检索请求
     * #模糊匹配,过滤(按照属性,分类,品牌,价格区间,库存),排序,分页,高亮,聚合分析
     *
     * @param param
     * @return
     */
    private SearchRequest buildSearchRequest(SearchParam param) {
        SearchSourceBuilder sourceBuilder = new SearchSourceBuilder(); //构建DSL语句的

        /**
         * 查询:过滤(按照属性,分类,品牌,价格区间,库存)
         */
        //1、构建bool - query
        BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();

        //1.1、must - 模糊匹配
        if (StringUtils.isNotEmpty(param.getKeyword())) {
            boolQuery.must(QueryBuilders.matchQuery("skuTitle", param.getKeyword()));
        }
        //1.2、bool - filter - 按照三级分类id查询
        if (param.getCatalog3Id() != null) {
            boolQuery.filter(QueryBuilders.termQuery("catalogId", param.getCatalog3Id()));
        }
        //1.2、bool - filter - 按照品牌id查询
        if (param.getBrandId() != null && param.getBrandId().size() > 0) {
            boolQuery.filter(QueryBuilders.termsQuery("brandId", param.getBrandId()));
        }
        //1.2、bool - filter - 按照所有指定的属性进行查询
        if (param.getAttrs() != null && param.getAttrs().size() > 0) {
            //attrs=1_5寸:8寸&attrs=2_16G:8G
            for (String attrStr : param.getAttrs()) {
                BoolQueryBuilder nestedBoolQuery = QueryBuilders.boolQuery();
                //attr = 1_5寸:8寸
                String[] s = attrStr.split("_");
                String attrId = s[0]; //检索的属性id
                String[] attrValues = s[1].split(":"); //这个属性的检索用的值
                nestedBoolQuery.must(QueryBuilders.termQuery("attrs.attrId", attrId));
                nestedBoolQuery.must(QueryBuilders.termsQuery("attrs.attrValue", attrValues));
                //每一个必须都得生成一个nested查询
                NestedQueryBuilder nestedQuery = QueryBuilders.nestedQuery("attrs", nestedBoolQuery, ScoreMode.None);
                boolQuery.filter(nestedQuery);
            }

        }

        //1.2、bool - filter - 按照库存是否有进行查询
        boolQuery.filter(QueryBuilders.termQuery("hasStock", param.getHasStock() == 1));

        //1.2、bool - filter - 按照价格区间进行查询
        if (StringUtils.isNotEmpty(param.getSkuPrice())) {
            //skuPrice=1_500/_500/500_

            RangeQueryBuilder rangeQuery = QueryBuilders.rangeQuery("skuPrice");

            String[] s = param.getSkuPrice().split("_");
            if (s.length == 2) {
                //区间
                rangeQuery.gte(s[0]).lte(s[1]);
            } else if (s.length == 1) {
                if (param.getSkuPrice().startsWith("_")) {
                    rangeQuery.lte(s[1]);
                }

                if (param.getSkuPrice().endsWith("_")) {
                    rangeQuery.gte(s[0]);
                }
            }

            boolQuery.filter(rangeQuery);
        }

        //把以前的所有条件都拿来进行封装
        sourceBuilder.query(boolQuery);

        /**
         * 排序,分页,高亮
         */
        //2.1、排序
        if (StringUtils.isNotEmpty(param.getSort())) {
            String sort = param.getSort();
            //sort=hotScore_asc/desc
            String[] s = sort.split("_");
            SortOrder order = s[1].equalsIgnoreCase("asc") ? SortOrder.ASC : SortOrder.DESC;
            sourceBuilder.sort(s[0], order);
        }
        //2.2、分页    pageSize:5
        //pageNum:1 from:0  size:5 [0,1,2,3,4,5]
        //pageNum:2 from:5  size:5
        //from = (pageNum - 1)*size
        sourceBuilder.from((param.getPageNum() - 1) * EsConstant.PRODUCT_PAGESIZE);
        sourceBuilder.size(EsConstant.PRODUCT_PAGESIZE);

        //2.3、高亮
        if (StringUtils.isNotEmpty(param.getKeyword())) {
            HighlightBuilder builder = new HighlightBuilder();
            builder.field("skuTitle");
            builder.preTags("<b style='color:red'>");
            builder.postTags("</b>");
            sourceBuilder.highlighter(builder);
        }


        /**
         * 聚合分析
         */
        //1、品牌聚合
        TermsAggregationBuilder brand_agg = AggregationBuilders.terms("brand_agg");
        brand_agg.field("brandId").size(50);
        //品牌聚合的子聚合
        brand_agg.subAggregation(AggregationBuilders.terms("brand_name_agg").field("brandName").size(1));
        brand_agg.subAggregation(AggregationBuilders.terms("brand_img_agg").field("brandImg").size(1));
        //TODO 1、聚合brand
        sourceBuilder.aggregation(brand_agg);
        //2、分类聚合 catalog_agg
        TermsAggregationBuilder catalog_agg = AggregationBuilders.terms("catalog_agg").field("catalogId").size(20);
        catalog_agg.subAggregation(AggregationBuilders.terms("catalog_name_agg").field("catalogName").size(1));
        //TODO 2、聚合catalog
        sourceBuilder.aggregation(catalog_agg);
        //3、属性聚合 attr_agg
        NestedAggregationBuilder attr_agg = AggregationBuilders.nested("attr_agg", "attrs");
        //聚合出当前所有的attrId
        TermsAggregationBuilder attr_id_agg = AggregationBuilders.terms("attr_id_agg").field("attrs.attrId");
        //聚合分析出当前attr_id对应的名字
        attr_id_agg.subAggregation(AggregationBuilders.terms("attr_name_agg").field("attrs.attrName").size(1));
        //聚合分析出当前attr_id对应的所有可能的属性值attrValue
        attr_id_agg.subAggregation(AggregationBuilders.terms("attr_value_agg").field("attrs.attrValue").size(50));
        attr_agg.subAggregation(attr_id_agg);
        //TODO 3、聚合attr
        sourceBuilder.aggregation(attr_agg);


        String s = sourceBuilder.toString();
        System.out.println("构建的DSL:" + s);


        SearchRequest searchRequest = new SearchRequest(new String[]{EsConstant.PRODUCT_INDEX}, sourceBuilder);
        return searchRequest;
    }

4.4、结果提取封装

4.4.1、响应数据模型
@Data
public class SearchResult {

    //查询到的所有商品信息
    private List<SkuEsModel> products;

    /**
     * 以下是分页信息
     */
    private Integer pageNum; //当前页面
    private Long total; //总记录数
    private Integer totalPages; //总页码

    private List<BrandVo> brands; //当前查询到的结果,所有涉及到的品牌
    private List<CatalogVo> catalogs; //当前查询到的结果,所有涉及到的分类
    private List<AttrVo> attrs; //当前查询到的结果,所有涉及到的所有属性

    //以上是返回给页面的所有信息

    @Data
    public static class BrandVo {
        private Long brandId;
        private String brandName;
        private String brandImg;
    }

    @Data
    public static class CatalogVo {
        private Long catalogId;
        private String catalogName;
    }

    @Data
    public static class AttrVo {
        private Long attrId;
        private String attrName;
        private List<String> attrValue;
    }
}
4.4.2、响应结果封装
    /**
     * 构建结果数据
     *
     * @param response
     * @param param
     * @return
     */
    private SearchResult buildSearchResult(SearchResponse response, SearchParam param) {
        SearchResult result = new SearchResult();
        //1、返回的所有查询到的商品
        SearchHits hits = response.getHits();
        List<SkuEsModel> esModels = Lists.newArrayList();
        if (hits.getHits() != null && hits.getHits().length > 0) {
            for (SearchHit hit : hits.getHits()) {
                String sourceAsString = hit.getSourceAsString();
                SkuEsModel esModel = JSON.parseObject(sourceAsString, SkuEsModel.class);
                if (StringUtils.isNotEmpty(param.getKeyword())) {
                    HighlightField skuTitle = hit.getHighlightFields().get("skuTitle");
                    String string = skuTitle.fragments()[0].string();
                    esModel.setSkuTitle(string);
                }
                esModels.add(esModel);
            }
        }
        result.setProducts(esModels);

        //2、当前所有商品涉及到的所有属性信息
        List<SearchResult.AttrVo> attrVos = Lists.newArrayList();
        ParsedNested attr_agg = response.getAggregations().get("attr_agg");
        ParsedLongTerms attr_id_agg = attr_agg.getAggregations().get("attr_id_agg");
        for (Terms.Bucket bucket : attr_id_agg.getBuckets()) {
            SearchResult.AttrVo attrVo = new SearchResult.AttrVo();
            //1、得到属性的id
            long attrId = bucket.getKeyAsNumber().longValue();
            //2、得到属性的名字
            String attrName = ((ParsedStringTerms) bucket.getAggregations().get("attr_name_agg")).getBuckets().get(0).getKeyAsString();
            //3、得到属性的所有值
            List<String> attrValues = ((ParsedStringTerms) bucket.getAggregations().get("attr_value_agg")).getBuckets().stream().map(item -> {
                String keyAsString = item.getKeyAsString();
                return keyAsString;
            }).collect(Collectors.toList());

            attrVo.setAttrId(attrId);
            attrVo.setAttrName(attrName);
            attrVo.setAttrValue(attrValues);

            attrVos.add(attrVo);
        }
        result.setAttrs(attrVos);

        //3、当前所有商品涉及到的所有品牌信息
        List<SearchResult.BrandVo> brandVos = Lists.newArrayList();
        ParsedLongTerms brand_agg = response.getAggregations().get("brand_agg");
        for (Terms.Bucket bucket : brand_agg.getBuckets()) {
            SearchResult.BrandVo brandVo = new SearchResult.BrandVo();
            //1、得到品牌的id
            long brandId = bucket.getKeyAsNumber().longValue();
            //2、得到品牌的名字
            String brandName = ((ParsedStringTerms) bucket.getAggregations().get("brand_name_agg")).getBuckets().get(0).getKeyAsString();
            //3、得到品牌的图片
            String brandImg = ((ParsedStringTerms) bucket.getAggregations().get("brand_img_agg")).getBuckets().get(0).getKeyAsString();
            brandVo.setBrandId(brandId);
            brandVo.setBrandName(brandName);
            brandVo.setBrandImg(brandImg);
            brandVos.add(brandVo);
        }
        result.setBrands(brandVos);

        //4、当前所有商品涉及到的所有分类信息
        ParsedLongTerms catalog_agg = response.getAggregations().get("catalog_agg");
        List<SearchResult.CatalogVo> catalogVos = Lists.newArrayList();
        List<? extends Terms.Bucket> buckets = catalog_agg.getBuckets();
        for (Terms.Bucket bucket : buckets) {
            SearchResult.CatalogVo catalogVo = new SearchResult.CatalogVo();
            //得到分类id
            String keyAsString = bucket.getKeyAsString();
            catalogVo.setCatalogId(Long.parseLong(keyAsString));

            //得到分类名
            ParsedStringTerms catalog_name_agg = bucket.getAggregations().get("catalog_name_agg");
            String catalog_name = catalog_name_agg.getBuckets().get(0).getKeyAsString();
            catalogVo.setCatalogName(catalog_name);
            catalogVos.add(catalogVo);
        }
        result.setCatalogs(catalogVos);
//        ======以上从聚合信息中获取=======

        //5、分页信息-页码
        result.setPageNum(param.getPageNum());
        //6、分页信息-总记录数
        long total = hits.getTotalHits().value;
        result.setTotal(total);
        //7、分页信息-总页码
        int totalPages = total % EsConstant.PRODUCT_PAGESIZE == 0 ? (int) total / EsConstant.PRODUCT_PAGESIZE : (int) (total / EsConstant.PRODUCT_PAGESIZE + 1);
        result.setTotalPages(totalPages);

        return result;
    }

六、附录-安装 nginx

  • 随便启动一个nginx实例,只是为了复制出配置
    • docker run -p 80:80 --name nginx -d nginx:1.10
  • 将容器内的配置文件拷贝到当前目录:docker container cp nginx:/etc/nginx .
    • 别忘了后面的点
  • 修改文件名称:mv nginx conf 把这个conf移动到/mydata/nginx下
  • 终止原容器:docker stop nginx
  • 执行命令删除原容器:docker rm $ContainerId
  • 创建新的 nginx;执行以下命令
docker run -p 80:80 --name nginx \
-v /mydata/nginx/html:/usr/share/nginx/html \
-v /mydata/nginx/logs:/var/log/nginx \
-v /mydata/nginx/conf:/etc/nginx \
-d nginx:1.10

  • 给 nginx 的 html 下面放的所有资源可以直接访问;
posted @ 2022-03-14 22:12  冰枫丶  阅读(111)  评论(0编辑  收藏  举报