摘要: 一、简介 分词原理 常见的分词器(中文分词场景不推荐用) StandardAnalyzer(官方推荐的分词器):英文分词效果比较好,无法对中文进行正确分词。(单字分词,对中文分词会一个字一个字的分) CJKAnalyzer(中日韩联合分词器):二分法分词,按两个字进行切分 smartChineseA 阅读全文
posted @ 2019-09-02 23:58 有梦想的肥宅 阅读(549) 评论(0) 推荐(0)
摘要: 一、代码分析 二、注意事项 1、删除的时候,索引库里对应ID下的term和文档都会删除。 2、修改操作其实是先把符合条件的term和文档都会删掉,然后再加入新的文档。 3、删掉的文档,文档ID不会释放,还是被占用的。 4、流用完一定要记得关。 阅读全文
posted @ 2019-09-02 23:58 有梦想的肥宅 阅读(215) 评论(0) 推荐(0)
摘要: 一、查询理论 创建查询:构建一个包含了文档域和语汇单元的文档查询对象。(例:fileName:lucene) 查询过程:根据查询对象的条件,在索引中找出相应的term,然后根据term找到对应的文档id列表。 二、代码分析 实现代码 常用的搜索方法 阅读全文
posted @ 2019-09-02 15:38 有梦想的肥宅 阅读(348) 评论(0) 推荐(0)
摘要: PS:需要用到的jar包: 代码实现 1、工程结构 2、设置工程依赖的jar包 3、代码实现 4、右键运行后,查看生成的索引文件 5、使用luke查看索引 完事 lucene代码创建索引就算成功了~ 阅读全文
posted @ 2019-09-02 10:18 有梦想的肥宅 阅读(508) 评论(0) 推荐(0)