全文检索——Lucene

目的:提高扫描非结构化数据的查询速度,Lucene是首选工具

一、概念

什么是全文检索?

1,数据的分类

   (1)结构化数据

      格式固定、长度固定、数据类型固定

      例如数据库中的数据

   (2)非结构化数据

      word文档,pdf文档,html,txt

      格式不固定,长度不固定,数据类型不固定

2,数据的查询

  (1)结构化数据点的查询

      sql语句,查询结构化数据的方法,简单速度快

  (2)非结构化数据的查询 

      从文本文件中找出包含spring单词的文件,

      【1】目测

      【2】使用程序把文件读取到内存中然后匹配字符串,顺序扫描

      【3】把非结构化数据变成结构化数据

        先根据空格进行字符拆分,得到一个单词列表,基于单词列表创建一个索引,

        索引:一个为了提高查询速度,创建某种数据结构的集合

  ···     然后查询索引,根据单词和文档的对应关系找到文档列表,这个过程叫作全文检索。

3,全文检索

  先创建索引,然后查询索引的过程叫作全文检索。索引一次创建多次使用,表现为每次查询速度很快。

 

二、全文检索的应用场景

1,搜索引擎

  百度,360搜索,谷歌

2,站内搜索

  论坛搜索,微博,文章搜索,

3,电商搜索

  淘宝搜索,京东搜索

4,只要是有搜索的地方就可以用全文检索技术

 

三、Lucene

  Lucene是一个基于java开发的全文检索工具包。

 

四、Lucene实现全文检索的流程

1,创建索引

  (1)获得文档

      原始文档:要基于哪些数据进行搜索,那么这些数据就是原始文档。

      搜索引擎:使用爬虫获得原始文档。

      站内搜索:数据库中的数据。

      案例:直接使用Io流读取磁盘上的文件

  (2)构建文档对象

      对应每个原始文档创建一个Document对象

      每个document对象中包含多个域(field)

      域中保存的是原始文档数据

          域的名称

          域的值

      每个文档都有一个唯一的编号,就是文档id

   (3)分析文档

      就是分词的过程

      1,根据空格进行拆分字符串,得到单词的列表

         2,把单词统一转换成小写或者大写

       3,去掉标点符号

       4,去除停用词

        停用词:无意义的词

       每个关键词都封装成一个Term对象中,

        Term中包含两部分内容:关键词所在的域

                    关键词本身

        不同的域中拆分出来的相同的关键词是不同的Term

 

   (4)创建索引

      基于关键词拆分出来的列表创建一个索引,保存到索引库中,

      索引库中包含:

        索引

        document对象

         通过词语找文档,这种索引的结构叫倒排索引结构

 

2、查询索引

   (1)用户查询接口

      用户输入查询条件的地方

      例如:百度搜索框

   (2)把关键词封装成一个查询对象

      要查询的域

      要搜索的关键词

   (3)执行查询

      根据要查询的关键词到对应的与上进行搜索

      找到关键词,根据关键词找到对应的文档

   (4)渲染结果

      根据文档的id找到文档对象

      对关键词进行高亮显示

      分页处理

      最终展示给用户看

 

五、入门程序

1、创建索引

    环境:

      下载Lucene

      http://lucene.apache.org/

      最低要求jdk1.8

    工程搭建:

      创建java工程

      添加jar包

    

     步骤:

    (1)创建一个Director对象,指定索引库保存的位置

    (2)基于Directory对象创建一个IndexWriter对象

    (3)读取磁盘上的文件,对应每个文件创建一个文档对象

    (4)向文档对象写入索引库

    (5)关闭IndexWriter对象

LuceneFirst.java
package com.itheima.lucene;

import org.apache.commons.io.FileUtils;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.standard.StandardAnalyzer;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;
import org.apache.lucene.document.*;
import org.apache.lucene.index.*;
import org.apache.lucene.queryparser.classic.QueryParser;
import org.apache.lucene.search.*;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.FSDirectory;
import org.apache.lucene.store.RAMDirectory;
import org.junit.Test;
import org.wltea.analyzer.lucene.IKAnalyzer;

import java.io.File;

public class LuceneFirst {
    @Test
    public void createIndex() throws Exception {
        //1、创建一个Director对象,指定索引库保存的位置。
        //把索引库保存在内存中
        //Directory directory = new RAMDirectory();
        //把索引库保存在磁盘
        Directory directory = FSDirectory.open(new File("C:\\temp\\index").toPath());
        //2、基于Directory对象创建一个IndexWriter对象
        IndexWriterConfig config = new IndexWriterConfig(new IKAnalyzer());
        IndexWriter indexWriter = new IndexWriter(directory, config);
        //3、读取磁盘上的文件,对应每个文件创建一个文档对象。
        File dir = new File("C:\\A0.lucene2018\\05.参考资料\\searchsource");
        File[] files = dir.listFiles();
        for (File f :
                files) {
            //取文件名
            String fileName = f.getName();
            //文件的路径
            String filePath = f.getPath();
            //文件的内容
            String fileContent = FileUtils.readFileToString(f, "utf-8");
            //文件的大小
            long fileSize = FileUtils.sizeOf(f);
            //创建Field
            //参数1:域的名称,参数2:域的内容,参数3:是否存储
            Field fieldName = new TextField("name", fileName, Field.Store.YES);
            //Field fieldPath = new TextField("path", filePath, Field.Store.YES);
            Field fieldPath = new StoredField("path", filePath);
            Field fieldContent = new TextField("content", fileContent, Field.Store.YES);
            //Field fieldSize = new TextField("size", fileSize + "", Field.Store.YES);
            Field fieldSizeValue = new LongPoint("size", fileSize);
            Field fieldSizeStore = new StoredField("size", fileSize);
            //创建文档对象
            Document document = new Document();
            //向文档对象中添加域
            document.add(fieldName);
            document.add(fieldPath);
            document.add(fieldContent);
            //document.add(fieldSize);
            document.add(fieldSizeValue);
            document.add(fieldSizeStore);
            //5、把文档对象写入索引库
            indexWriter.addDocument(document);
        }
        //6、关闭indexwriter对象
        indexWriter.close();
    }

    @Test
    public void searchIndex() throws Exception {
        //1、创建一个Director对象,指定索引库的位置
        Directory directory = FSDirectory.open(new File("C:\\temp\\index").toPath());
        //2、创建一个IndexReader对象
        IndexReader indexReader = DirectoryReader.open(directory);
        //3、创建一个IndexSearcher对象,构造方法中的参数indexReader对象。
        IndexSearcher indexSearcher = new IndexSearcher(indexReader);
        //4、创建一个Query对象,TermQuery
        Query query = new TermQuery(new Term("name", "spring"));
        //5、执行查询,得到一个TopDocs对象
        //参数1:查询对象 参数2:查询结果返回的最大记录数
        TopDocs topDocs = indexSearcher.search(query, 10);
        //6、取查询结果的总记录数
        System.out.println("查询总记录数:" + topDocs.totalHits);
        //7、取文档列表
        ScoreDoc[] scoreDocs = topDocs.scoreDocs;
        //8、打印文档中的内容
        for (ScoreDoc doc :
                scoreDocs) {
            //取文档id
            int docId = doc.doc;
            //根据id取文档对象
            Document document = indexSearcher.doc(docId);
            System.out.println(document.get("name"));
            System.out.println(document.get("path"));
            System.out.println(document.get("size"));
            //System.out.println(document.get("content"));
            System.out.println("-----------------寂寞的分割线");
        }
        //9、关闭IndexReader对象
        indexReader.close();
    }

    @Test
    public void testTokenStream() throws Exception {
        //1)创建一个Analyzer对象,StandardAnalyzer对象
//        Analyzer analyzer = new StandardAnalyzer();
        Analyzer analyzer = new IKAnalyzer();
        //2)使用分析器对象的tokenStream方法获得一个TokenStream对象
        TokenStream tokenStream = analyzer.tokenStream("", "2017年12月14日 - 传智播客Lucene概述公安局Lucene是一款高性能的、可扩展的信息检索(IR)工具库。信息检索是指文档搜索、文档内信息搜索或者文档相关的元数据搜索等操作。");
        //3)向TokenStream对象中设置一个引用,相当于数一个指针
        CharTermAttribute charTermAttribute = tokenStream.addAttribute(CharTermAttribute.class);
        //4)调用TokenStream对象的rest方法。如果不调用抛异常
        tokenStream.reset();
        //5)使用while循环遍历TokenStream对象
        while(tokenStream.incrementToken()) {
            System.out.println(charTermAttribute.toString());
        }
        //6)关闭TokenStream对象
        tokenStream.close();
    }


}

 

 

 2、使用luke查看索引库中的内容(必须用jdk1.9)

    

 

 3、查询索引库

  步骤:

     (1)创建一个Director对象,指定索引库的位置

     (2)创建一个IndextReader对象

     (3)创建一个IndexSearcher对象,构造方法中的参数indexReader对象

     (4)创建一个Query对象,TermQuery

     (5)执行查询,得到一个TopDocs对象

     (6)取查询结果的总记录数

     (7)取文档列表

     (8)打印文档中的内容

     (9)关闭IndexReader对象

六、分析器

   默认使用的是标准分析器StandardAnalyzer

1,查看分析器的分析效果  

  使用Analyzer对象的方法tokenSream方法返回一个TokenStream对象,词对象中包含了最终的分词结果

  实现步骤:

    (1)创建一个Analyzer对象,StanderdAnalyzer对象

    (2)使用分析器对象的tokenStream方法获得一个TokenStream对象

    (3)向TokenStream对象中设置一个引用,相当于一个指针

    (4)调用TokenStream对象的rest方法,如果不调用会抛异常

    (5)使用while循环来遍历TokenStream对象

    (6)关闭TokenStream对象

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  

posted @ 2019-04-11 08:56  小菜鸡哒  阅读(102)  评论(0)    收藏  举报