全文检索——Lucene
目的:提高扫描非结构化数据的查询速度,Lucene是首选工具
一、概念
什么是全文检索?
1,数据的分类
(1)结构化数据
格式固定、长度固定、数据类型固定
例如数据库中的数据
(2)非结构化数据
word文档,pdf文档,html,txt
格式不固定,长度不固定,数据类型不固定
2,数据的查询
(1)结构化数据点的查询
sql语句,查询结构化数据的方法,简单速度快
(2)非结构化数据的查询
从文本文件中找出包含spring单词的文件,
【1】目测
【2】使用程序把文件读取到内存中然后匹配字符串,顺序扫描
【3】把非结构化数据变成结构化数据
先根据空格进行字符拆分,得到一个单词列表,基于单词列表创建一个索引,
索引:一个为了提高查询速度,创建某种数据结构的集合
··· 然后查询索引,根据单词和文档的对应关系找到文档列表,这个过程叫作全文检索。
3,全文检索
先创建索引,然后查询索引的过程叫作全文检索。索引一次创建多次使用,表现为每次查询速度很快。
二、全文检索的应用场景
1,搜索引擎
百度,360搜索,谷歌
2,站内搜索
论坛搜索,微博,文章搜索,
3,电商搜索
淘宝搜索,京东搜索
4,只要是有搜索的地方就可以用全文检索技术
三、Lucene
Lucene是一个基于java开发的全文检索工具包。
四、Lucene实现全文检索的流程

1,创建索引
(1)获得文档
原始文档:要基于哪些数据进行搜索,那么这些数据就是原始文档。
搜索引擎:使用爬虫获得原始文档。
站内搜索:数据库中的数据。
案例:直接使用Io流读取磁盘上的文件
(2)构建文档对象
对应每个原始文档创建一个Document对象
每个document对象中包含多个域(field)
域中保存的是原始文档数据
域的名称
域的值
每个文档都有一个唯一的编号,就是文档id

(3)分析文档
就是分词的过程
1,根据空格进行拆分字符串,得到单词的列表
2,把单词统一转换成小写或者大写
3,去掉标点符号
4,去除停用词
停用词:无意义的词
每个关键词都封装成一个Term对象中,
Term中包含两部分内容:关键词所在的域
关键词本身
不同的域中拆分出来的相同的关键词是不同的Term
(4)创建索引
基于关键词拆分出来的列表创建一个索引,保存到索引库中,
索引库中包含:
索引
document对象
通过词语找文档,这种索引的结构叫倒排索引结构

2、查询索引
(1)用户查询接口
用户输入查询条件的地方
例如:百度搜索框
(2)把关键词封装成一个查询对象
要查询的域
要搜索的关键词
(3)执行查询
根据要查询的关键词到对应的与上进行搜索
找到关键词,根据关键词找到对应的文档
(4)渲染结果
根据文档的id找到文档对象
对关键词进行高亮显示
分页处理
最终展示给用户看
五、入门程序
1、创建索引
环境:
下载Lucene
http://lucene.apache.org/
最低要求jdk1.8
工程搭建:
创建java工程
添加jar包

步骤:
(1)创建一个Director对象,指定索引库保存的位置
(2)基于Directory对象创建一个IndexWriter对象
(3)读取磁盘上的文件,对应每个文件创建一个文档对象
(4)向文档对象写入索引库
(5)关闭IndexWriter对象
LuceneFirst.java
package com.itheima.lucene; import org.apache.commons.io.FileUtils; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.analysis.tokenattributes.CharTermAttribute; import org.apache.lucene.document.*; import org.apache.lucene.index.*; import org.apache.lucene.queryparser.classic.QueryParser; import org.apache.lucene.search.*; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.store.RAMDirectory; import org.junit.Test; import org.wltea.analyzer.lucene.IKAnalyzer; import java.io.File; public class LuceneFirst { @Test public void createIndex() throws Exception { //1、创建一个Director对象,指定索引库保存的位置。 //把索引库保存在内存中 //Directory directory = new RAMDirectory(); //把索引库保存在磁盘 Directory directory = FSDirectory.open(new File("C:\\temp\\index").toPath()); //2、基于Directory对象创建一个IndexWriter对象 IndexWriterConfig config = new IndexWriterConfig(new IKAnalyzer()); IndexWriter indexWriter = new IndexWriter(directory, config); //3、读取磁盘上的文件,对应每个文件创建一个文档对象。 File dir = new File("C:\\A0.lucene2018\\05.参考资料\\searchsource"); File[] files = dir.listFiles(); for (File f : files) { //取文件名 String fileName = f.getName(); //文件的路径 String filePath = f.getPath(); //文件的内容 String fileContent = FileUtils.readFileToString(f, "utf-8"); //文件的大小 long fileSize = FileUtils.sizeOf(f); //创建Field //参数1:域的名称,参数2:域的内容,参数3:是否存储 Field fieldName = new TextField("name", fileName, Field.Store.YES); //Field fieldPath = new TextField("path", filePath, Field.Store.YES); Field fieldPath = new StoredField("path", filePath); Field fieldContent = new TextField("content", fileContent, Field.Store.YES); //Field fieldSize = new TextField("size", fileSize + "", Field.Store.YES); Field fieldSizeValue = new LongPoint("size", fileSize); Field fieldSizeStore = new StoredField("size", fileSize); //创建文档对象 Document document = new Document(); //向文档对象中添加域 document.add(fieldName); document.add(fieldPath); document.add(fieldContent); //document.add(fieldSize); document.add(fieldSizeValue); document.add(fieldSizeStore); //5、把文档对象写入索引库 indexWriter.addDocument(document); } //6、关闭indexwriter对象 indexWriter.close(); } @Test public void searchIndex() throws Exception { //1、创建一个Director对象,指定索引库的位置 Directory directory = FSDirectory.open(new File("C:\\temp\\index").toPath()); //2、创建一个IndexReader对象 IndexReader indexReader = DirectoryReader.open(directory); //3、创建一个IndexSearcher对象,构造方法中的参数indexReader对象。 IndexSearcher indexSearcher = new IndexSearcher(indexReader); //4、创建一个Query对象,TermQuery Query query = new TermQuery(new Term("name", "spring")); //5、执行查询,得到一个TopDocs对象 //参数1:查询对象 参数2:查询结果返回的最大记录数 TopDocs topDocs = indexSearcher.search(query, 10); //6、取查询结果的总记录数 System.out.println("查询总记录数:" + topDocs.totalHits); //7、取文档列表 ScoreDoc[] scoreDocs = topDocs.scoreDocs; //8、打印文档中的内容 for (ScoreDoc doc : scoreDocs) { //取文档id int docId = doc.doc; //根据id取文档对象 Document document = indexSearcher.doc(docId); System.out.println(document.get("name")); System.out.println(document.get("path")); System.out.println(document.get("size")); //System.out.println(document.get("content")); System.out.println("-----------------寂寞的分割线"); } //9、关闭IndexReader对象 indexReader.close(); } @Test public void testTokenStream() throws Exception { //1)创建一个Analyzer对象,StandardAnalyzer对象 // Analyzer analyzer = new StandardAnalyzer(); Analyzer analyzer = new IKAnalyzer(); //2)使用分析器对象的tokenStream方法获得一个TokenStream对象 TokenStream tokenStream = analyzer.tokenStream("", "2017年12月14日 - 传智播客Lucene概述公安局Lucene是一款高性能的、可扩展的信息检索(IR)工具库。信息检索是指文档搜索、文档内信息搜索或者文档相关的元数据搜索等操作。"); //3)向TokenStream对象中设置一个引用,相当于数一个指针 CharTermAttribute charTermAttribute = tokenStream.addAttribute(CharTermAttribute.class); //4)调用TokenStream对象的rest方法。如果不调用抛异常 tokenStream.reset(); //5)使用while循环遍历TokenStream对象 while(tokenStream.incrementToken()) { System.out.println(charTermAttribute.toString()); } //6)关闭TokenStream对象 tokenStream.close(); } }
2、使用luke查看索引库中的内容(必须用jdk1.9)
3、查询索引库
步骤:
(1)创建一个Director对象,指定索引库的位置
(2)创建一个IndextReader对象
(3)创建一个IndexSearcher对象,构造方法中的参数indexReader对象
(4)创建一个Query对象,TermQuery
(5)执行查询,得到一个TopDocs对象
(6)取查询结果的总记录数
(7)取文档列表
(8)打印文档中的内容
(9)关闭IndexReader对象
六、分析器
默认使用的是标准分析器StandardAnalyzer
1,查看分析器的分析效果
使用Analyzer对象的方法tokenSream方法返回一个TokenStream对象,词对象中包含了最终的分词结果
实现步骤:
(1)创建一个Analyzer对象,StanderdAnalyzer对象
(2)使用分析器对象的tokenStream方法获得一个TokenStream对象
(3)向TokenStream对象中设置一个引用,相当于一个指针
(4)调用TokenStream对象的rest方法,如果不调用会抛异常
(5)使用while循环来遍历TokenStream对象
(6)关闭TokenStream对象

浙公网安备 33010602011771号