摘要: 分词里面有两个名词:Analysis、Analyzer Analysis 文本分析是把全文本转换一系列单词的过程,叫成分词。 Analyzer 分词器(有内置的分词器,也有相应的插件,尤其是针对中文)由以下三部分组成:1.Character Filters 过滤特殊字符串2.Tokenizer 单词 阅读全文
posted @ 2020-11-03 17:39 有味猫 阅读(154) 评论(0) 推荐(0)
摘要: 要了解倒排索引,需要先了解正排索引。 正排索引 以文档ID作为索引,通过ID查找到具体内容。 这种索引方式称为正排索引。 倒排索引 以词为索引,根据词找到文件信息。 这种方式索引,称为倒排索引。 如下图: 倒排索引的核心组成: 分为两部分: 1.单词词典 记录所有文档的单词,记录单词到倒排索引的关联 阅读全文
posted @ 2020-11-03 16:46 有味猫 阅读(117) 评论(0) 推荐(0)
摘要: 删除数据使用DELETE关键词 我们现在总结下关键词对应的操作方法: PUT create document POST Index 创建(覆盖) Update BulkAPI mget msearch 批量删除 阅读全文
posted @ 2020-11-03 13:23 有味猫 阅读(117) 评论(0) 推荐(0)
摘要: 在ES中,更新文档,也是通过POST方式请求。 在新增数据中,我们了解了op_type可以指定操作方式,更新可不可以用op_type参数呢? 从错误提示中我们可以得知,op_type参数只能支持 create ,index两种方式。 这里补充一点,这里的index不是索引的意思,这里是动词,也是指添 阅读全文
posted @ 2020-11-03 13:11 有味猫 阅读(720) 评论(0) 推荐(1)
摘要: 1.找到Kibana DevTools 执行命令 可以看到,如果我们直接 GET index 返回的是这个index的mapping,setting信息。 Mapping: 定义索引中的字段名称 定义字段的数据类型,例如字符串、数字、布尔... 字段,倒排索引的相关配置(后面介绍) ElasticS 阅读全文
posted @ 2020-11-03 12:37 有味猫 阅读(206) 评论(0) 推荐(0)
摘要: 上一节我们安装好了kibana,打开DevTools。 一、新增数据 1.不指定ID。 ############Create Document############ #create document. 自动生成 _id POST users/_doc { "user" : "Mike", "pos 阅读全文
posted @ 2020-11-03 11:43 有味猫 阅读(446) 评论(0) 推荐(0)
摘要: 学习一门新技术,我始终觉得先上手实战为主。 本章主要以搭建一个可以实战的环境为主,不过多介绍安装详情。 前提准备: 1.安装 docker for windows /mac,下载地址: https://www.docker.com/products/docker-desktop 2.找到elasti 阅读全文
posted @ 2020-11-03 10:49 有味猫 阅读(149) 评论(0) 推荐(0)