myJavaSE

elasticsearch入门

1.elasticsearch相关介绍

1Near RealtimeNRT:近实时,两个意思,从写入数据到数据可以被搜索到有一个小延迟(大概1秒);基于es执行搜索和分析可以达到秒级

2Index:索引库,包含一堆有相似结构的文档数据,比如可以有一个客户索引,商品分类索引,订单索引,索引有一个名称。一个index包含很多document,一个index就代表了一类类似的或者相同的document。比如说建立一个product index,商品索引,里面可能就存放了所有的商品数据,所有的商品document

3Type:类型,每个索引里都可以有一个或多个typetypeindex中的一个逻辑数据分类,一个type下的document,都有相同的field,比如博客系统,有一个索引,可以定义用户数据type,博客数据type,评论数据type

4Document&field:文档,es中的最小数据单元,一个document可以是一条客户数据,一条商品分类数据,一条订单数据,通常用JSON数据结构表示,每个index下的type中,都可以去存储多个document。一个document里面有多个field,每个field就是一个数据字段。

5Cluster:集群,包含多个节点,每个节点属于哪个集群是通过一个配置(集群名称,默认是elasticsearch)来决定的,对于中小型应用来说,刚开始一个集群就一个节点很正常

6Node:节点,集群中的一个节点,节点也有一个名称(默认是随机分配的),节点名称很重要(在执行运维管理操作的时候),默认节点会去加入一个名称为“elasticsearch”的集群,如果直接启动一堆节点,那么它们会自动组成一个elasticsearch集群,当然一个节点也可以组成一个elasticsearch集群

7shardʃɑːrd,分片):单台机器无法存储大量数据,es可以将一个索引中的数据切分为多个shard,分布在多台服务器上存储。有了shard就可以横向扩展,存储更多数据,让搜索和分析等操作分布到多台服务器上去执行,提升吞吐量和性能。每个shard都是一个lucene index

8replica(ˈreplɪkə,复制品):任何一个服务器随时可能故障或宕机,此时shard可能就会丢失,因此可以为每个shard创建多个replica副本。replica可以在shard故障时提供备用服务,保证数据不丢失,多个replica还可以提升搜索操作的吞吐量和性能。primary shard(建立索引时一次设置,不能修改,默认5个),replica shard(随时修改数量,默认1个),默认每个索引10shard5primary shard5replica shard,最小的高可用配置,是2台服务器。

 2.elasticsearch安装

(1) 安装

   解压即可

   可以修改内存配置

 

 

 

 

 

 

 

(2) 启动

   bin/elasticsearch.bat

(3)测试 -web端口

  http://localhost:9200

  查询状态

 

3 集群健康状态

 

针对一个索引,Elasticsearch 中其实有专门的衡量索引健康状况的标志,分为三个等级:

green,绿色。这代表所有的主分片和副本分片都已分配。你的集群是 100% 可用的。

 

yellow,黄色。所有的主分片已经分片了,但至少还有一个副本是缺失的。不会有数据丢失,所以搜索结果依然是完整的。不过,你的高可用性在某种程度上被弱化。如果更多的分片消失,你就会丢数据了。所以可把 yellow 想象成一个需要及时调查的警告。

 

red,红色。至少一个主分片以及它的全部副本都在缺失中。这意味着你在缺少数据:搜索只能返回部分数据,而分配到这个分片上的写入请求会返回一个异常。如果你只有一台主机的话,其实索引的健康状况也是 yellow,因为一台主机,集群没有其他的主机可以防止副本,所以说,这就是一个不健康的状态,因此集群也是十分有必要的

 

 

4.安装kibana客户端

   1)下载

   2)安装

      解压即可

   3)配置

      配置服务器地址,编辑config/kibana.yml,设置elasticsearch.url的值为已启动的ES

2) 启动

 

 

 

2) 测试

  http://localhost:5601

 

 

 (3)crud

GET _search
{
  "query": {
    "match_all": {}
  }
}
#新增一条数据到索引库crm中
GET crm/employee/1
{
  "name":"xxxx",
  "age":17
}
GET _search
#修改数据
POST crm/employee/1
{
  "name":"jjjjj",
  "age":20
}
#删除数据
DELETE crm/employee/1

#不输入id,会自动生成id
GET crm/employee
{
  "name":"小飞",
  "age":12
}
#使用生成的id查询,不输入id他会在添加一个
POST crm/employee
{
  "name":"小飞机",
  "age":22
}
#输入id进行修改
POST crm/employee/AW8i5TyiNXVYGBRIX5-H
{
  "name":"小飞机",
  "age":22
}
#获取漂亮格式,自带了的就没有了
GET crm/employee/AW8i5TyiNXVYGBRIX5-H?pretty
#获取指定的列
GET crm/employee/AW8i5TyiNXVYGBRIX5-H?_source=name
#局部更新,只更新名字
GET crm/employee/AW8i5TyiNXVYGBRIX5-H/_update
{
  "doc":{
    "name":"大飞机"
  }
}
#批量操作
POST _bulk
{ "delete": { "_index": "itsource", "_type": "employee", "_id": "123" }}
{ "create": { "_index": "itsource", "_type": "blog", "_id": "123" }}
{ "title": "我发布的博客" }
{ "index": { "_index": "itsource", "_type": "blog" }}
{ "title": "我的第二博客" }
GET itsource/blog/_mget
{
  "ids" : [ "123", "AW8iQAxERN4d1HhhqMML" ]
}
#准备分页查询数据
GET crm/students/1
{
  "name":"龙"
}

GET crm/students/2
{
  "name":"凤"
}
GET crm/students/3
{
  "name":"呈"
}
GET crm/students/4
{
  "name":"祥"
}
GET crm/students/5
{
  "name":"天"
}
GET crm/students/6
{
  "name":"下"
}
GET crm/students/7
{
  "name":"大"
}
GET crm/students/8
{
  "name":"吉"
}
#分页查询
GET crm/students/_search?size=3
GET crm/students/_search?from=2&size=2
#dsl查询
GET crm/students/_search
{
"query": {
   "match_all": {}
},
"from": 0, 
"size": 3,
"_source": ["name", "age"],
"sort": [{"age": "asc"}]
}
#dsl过滤查询

 

5. head工具入门+postman

进入head页面 进行安装

1)安装

  下载

  npm install --时间有点久

  npm run start

2) 配置

跨域访问

  修改 elasticsearch/config/elasticsearch.yml

http.cors.enabled: true

http.cors.allow-origin: "*"

3) 使用

  

posted on 2019-12-20 19:33  myJavaSE  阅读(341)  评论(0编辑  收藏  举报

导航