dwSun

一个很正经的IT工作者
中国非著名人工智能表演艺术家

导航

elasticsearch-权威指南笔记-基础部分

参考这里的文档es权威指南
话说这个坑爹的文档是2.x版本的es,英文版本也是,所以就没啥好抱怨的了。

官方教程中有很多坑

例如,需要启动text上的索引。

还有就是get这个是不能带json的,所以很多get的操作其实都是直接用post。

关于集群

  • 所有节点都是平等的,除了主节点。
  • 任何节点都可接受查询并且了解所有文档所处位置。
  • 默认每个分片都有一个副本,而且分布在不同的节点上,保证数据安全。
  • 一个索引有多个分片,这个似乎是为了提高性能。
  • 主分片数目是固定的,创建索引的时候指定,但是副本可以是随时添加的

关于文档

  • es中文档就是一个数据记录,json格式
  • _index, _type, _id唯一确定了一个文档
  • _id基本是不冲突的
  • 直接使用head就能在不返回的情况下查询文档是否存在,这个其实可以有其他的实现方式吧。
  • 更新之后,旧文档就无法访问了,蛋疼,还以为这个功能可以实现版本控制。
  • 可以用PUT /website/blog/123?op_type=create或者PUT /website/blog/123/_create确保创建新文档而不是更新已有文档。
  • delete操作其实是更新文档版本加标记文档为已删除,这么做是为了跨节点同步,最终文档会被删除。
  • 关于版本控制
    • es使用版本号控制文档更新和并发
    • 内部版本一定是递增的
    • 可以用PUT /website/blog/1?version=1方式来指定对版本号1进行修改,如果版本号已变则操作失败,这样可以保证冲突的情况下,不会出现未知问题。
    • 所有文档的更新或删除 API,都可以接受 version 参数
    • 可以通过PUT /website/blog/2?version=5&version_type=external的方式来使用外部api。
    • 可以通过/website/blog/1/_update这种的方式进行文档的部分更新,这个过程内部实际上就是post一个新文档过去,只不过省了一些操作而已
    • update还有一种操作是可以用脚本,不过看上去都是一些比较简单的脚本,另外脚本默认是禁用的。
    • update的操作,必须是已经存在的文档,如果不存在会出现错误。
  • 获取多个文档,可以通过GET /_mget进行,而且灵活性比较大,可以在index下或者type下进行mget,参数是比较灵活的,而且某个文档没有不妨碍其他文档被检索到。
  • bulkapi的处理有点蛋疼,它是给一个操作,指定相应的文档,然后给操作的body,一行行来的,python的api中,也遵循这个结构。
  • 路由分片,也就是用hash%shards的方式,计算文档属于哪个分片,挺常用的技巧。
  • 一个修改操作,将会由任何持有主分片的节点执行,但是结果会被同步转发到所有的分片副本节点,结果全部完成后才会发给客户端。
  • 一个查询操作,任何主分片或者副本分片都可以响应,而且为了更大的性能,这个查询还会被负载均衡一下。
  • update的请求转发,不是只转发操作,而是转发整个文档。看来es的内部通信还是挺大的流量的。
  • mget内部会被分解为多个操作,由多个节点执行完后,由被访问节点构建最终的回复。
  • bulk奇怪的结构是因为,这样的结构可以一边读取操作的数据,一边转发所有的操作到对应的分片节点,效率比较高。

查询

  • well, for search

  • 似乎6.x开始就不能在一个index下用多个type了,7.x直接没有type了,这个倒是简洁了,不过还是有点蛋疼。

  • 搜索的结果还是很多信息的,不过都是json的,挺好理解。

  • 搜索的url可以用来组合多个index和type,还能用通配符。

  • 跟mongo差不多的skip方式GET /_search?size=5&from=10

  • 简单查询使用url参数,以get方式进行

  • 有一个默认的_all字段,等于是一个对整个文档的组合,默认在这上面查询。

  • es里面有精确查询和全文查询的区别,对于文本是全文查询的,而日期之类有精确查询的功能。

  • 倒排索引,蛋疼。。。

  • 分析分析要索引的文档以及查询的关键词,其中包含分词器。分词器有默认的,但是我们要的是自己定义的。有些分析器支持拼音检索,或者首字母检索。

  • 虽然说,get的查询方式带body是被es支持的,但是真心不推荐用,因为很多时候都不好用。

  • 查询语句,貌似其本质跟mongo的真没啥太大的区别,就是形式上不太一样而已:

  {
      "bool": {
          "must":     { "match": { "tweet": "elasticsearch" }},
          "must_not": { "match": { "name":  "mary" }},
          "should":   { "match": { "tweet": "full text" }},
          "filter":   { "range": { "age" : { "gt" : 30 }} }
      }
  }
  • 查询分为查询与过滤,查询是给结果进行排序的,而且比较慢,过滤则是直接给出结果,所以比较快。

  • 几种基本查询:

    • { "match_all": {}}
      
    • { "match": { "age":    26           }}
      { "match": { "date":   "2014-09-01" }}
      { "match": { "public": true         }}
      { "match": { "tag":    "full_text"  }}
      
    • {
          "multi_match": {
              "query":    "full text search",
              "fields":   [ "title", "body" ]
          }
      }
      
    • {
          "range": {
              "age": {
                  "gte":  20,
                  "lt":   30
              }
          }
      }
      
    • { "term": { "age":    26           }}
      { "term": { "date":   "2014-09-01" }}
      { "term": { "public": true         }}
      { "term": { "tag":    "full_text"  }}
      这个只适用于精确查询,也就是字符串不会被解析。
      
    • { "terms": { "tag": [ "search", "full_text", "nosql" ] }}
      
    • {
          "exists":   {
              "field":    "title"
          }
      }
      只要有就返回,不解析内容
      missing被删掉了,所以需要用bool和must_not来进行组合,蛋疼
      
  • 可以用bool来组合多查询

    • must 文档 必须 匹配这些条件才能被包含进来。
    • must_not文档 必须不 匹配这些条件才能被包含进来。
    • should 如果满足这些语句中的任意语句,将增加 _score ,否则,无任何影响。它们主要用于修正每个文档的相关性得分。
    • filter 必须 匹配,但它以不评分、过滤模式来进行。这些语句对评分没有贡献,只是根据过滤标准来排除或包含文档。这个不会被评分,很快而且内部有优化。
  • 一个很复杂的查询。
    {
        "bool": {
            "must":     { "match": { "title": "how to make millions" }},
            "must_not": { "match": { "tag":   "spam" }},
            "should": [
                { "match": { "tag": "starred" }}
            ],
            "filter": {
              "bool": { 
                  "must": [
                      { "range": { "date": { "gte": "2014-01-01" }}},
                      { "range": { "price": { "lte": 29.99 }}}
                  ],
                  "must_not": [
                      { "term": { "category": "ebooks" }}
                  ]
              }
            }
        }
    }
    
  • 不评分的查询,很快,而且也很常用。

  • {
        "constant_score":   {
            "filter": {
                "term": { "category": "ebooks" } 
            }
        }
    }
    
  • 排序就是应用了sort关键字,但是需要注意,排序之后,不再计算score

    • GET /_search
      {
          "query" : {
              "bool" : {
                  "filter" : { "term" : { "user_id" : 1 }}
              }
          },
          "sort": { "date": { "order": "desc" }}
      }
      
  • Elasticsearch 的相似度算法 被定义为检索词频率/反向文档频率, TF/IDF ,包括以下内容

    • 检索词频率
          检索词在该字段出现的频率?出现频率越高,相关性也越高。 字段中出现过 5 次要比只出现过 1 次的相关性高。
      
      反向文档频率
          每个检索词在索引中出现的频率?频率越高,相关性越低。检索词出现在多数文档中会比出现在少数文档中的权重更低。
      
      字段长度准则
          字段的长度是多少?长度越长,相关性越低。 检索词出现在一个短的 title 要比同样的词出现在一个长的 content 字段权重更大。
      

索引管理

  • 直接put数据就可以创建索引,但是这时候的索引是默认的,可能不具备很多特性

  • 主分片,创建好了就不能修改了,副本可以随时扩增,甚至可以为0。

  • 分析器的配置,看一个自定义的例子

  PUT /my_index
  {
      "settings": {
          "analysis": {
              "char_filter": {
                  "&_to_and": {
                      "type":       "mapping",
                      "mappings": [ "&=> and "]
              }},
              "filter": {
                  "my_stopwords": {
                      "type":       "stop",
                      "stopwords": [ "the", "a" ]
              }},
              "analyzer": {
                  "my_analyzer": {
                      "type":         "custom",
                      "char_filter":  [ "html_strip", "&_to_and" ],
                      "tokenizer":    "standard",
                      "filter":       [ "lowercase", "my_stopwords" ]
              }}
  }}}
  • 目前已经不允许在同一个索引中创建两个以上的type,7.x会直接移除type

  • _source作为一个保存原始文档的手段,是可以被禁用的,这个觉得有点奇怪。

  • dynamic可以被关掉,而且可以针对每一个field单独开关。

  • 动态映射模板,用于默认的行为不符合我们的要求的情况下,似乎平时不太能用到,如果系统规划做的很合适的话:

  PUT /my_index
  {
      "mappings": {
          "my_type": {
              "dynamic_templates": [
                  { "es": {
                        "match":              "*_es", 
                        "match_mapping_type": "string",
                        "mapping": {
                            "type":           "string",
                            "analyzer":       "spanish"
                        }
                  }},
                  { "en": {
                        "match":              "*", 
                        "match_mapping_type": "string",
                        "mapping": {
                            "type":           "string",
                            "analyzer":       "english"
                        }
                  }}
              ]
  }}}
  • 一般来说,需要事先规划好索引的mapping等,但是计划总没有变化快,偶尔还是需要对索引进行设置变更,但是既存的是无法修改设置的,所以要么重建一个,复制数据,要么就用alias建一个索引别名。alias通常更快。

    • 感觉alias其实就是在同一份数据上,进行了不同的倒排表的创建。

    • 步骤,有点奇怪这些json的文档描述是怎么定义的

      • 用新的设置创建新的索引

      • 创建alias

      • PUT /my_index_v2
        {
            "mappings": {
                "my_type": {
                    "properties": {
                        "tags": {
                            "type":   "string",
                            "index":  "not_analyzed"
                        }
                    }
                }
            }
        }
        
        POST /_aliases
        {
            "actions": [
                { "remove": { "index": "my_index_v1", "alias": "my_index" }},
                { "add":    { "index": "my_index_v2", "alias": "my_index" }}
            ]
        }
        

吐槽,难怪es引入版本和各种文档更新的手段,es内部的数据是写完了就不改的,新追加的数据不会导致以前的索引重建,而是直接新建一块索引,并将原来的索引加入新建的索引块,所以es中的文档可以认为都是只读的。因而查询效率比较高,但是也引入了很多的问题。

最终,所有新建的索引都会被合并优化。这是后台低优先级执行的,所以不要指望每天有大量数据写入的情况下还能很好的合并优化,除非机器资源很足。

es的文档索引并不是实时的,有个1S的间隔,但是这个一般足够长了,如果不够的话,可以手动刷新,用

POST /_refresh 
POST /blogs/_refresh 

另外刷新的频率是可以i设置的

PUT /my_logs
{
  "settings": {
    "refresh_interval": "30s" 
  }
}

映射

  • 映射就是为了让es知道某个文档应该怎么去分析。
  • 核心简单域类型
    • 字符串: text
    • 整数 : byte, short, integer, long
    • 浮点数: float, double
    • 布尔型: boolean
    • 日期: date
  • 6.x以后,就已经没有string了,都是text类型
  • 空值不会被索引
  • 话说,多层次的(nested)object会被扁平化处理,这个是内部的处理,不需要外部知道。

关于URL

url中的一些特殊字段都是有特殊含义的,例如_search, _mapping之类的。

posted on 2018-04-14 22:33  dwSun  阅读(179)  评论(0编辑  收藏  举报