Fork me on GitHub
利用Lucene.net搭建站内搜索(3)---创建索引

Lucene.net提供了很全面的数据搜索操作,你可以利用Lucene.net检索磁盘中的文件,网页,数据库中的数据,但是前提是预先对数据创建索引。
Lucene索引过程分为三个主要的操作阶段:将数据转换成文本分析文本、并将分析过的文本保存到索引库中。如图所示:

1.数据转成文本:须将数据转换成Lucene能够处理的格式——纯文本字符流。

2.分析文本:完成了针对待索引数据的预处理操作,并创建了带有若干个域的Document对象,就可以调用IndexWriter的addDocument(Document)方法,将数据传递给Lucene来进行索引操作。在对数据进行索引处理时,Lucene会首先分析(analyze)数据使之更加适合被索引。

3.将分析过的文本保存到索引库中:对输入数据分析处理完之后,就可以将结果写入到索引文件中。Lucene将输入数据以一种称为倒排索引(inverted index)的数据结构进行存储。在进行关键字快速查找时,这种数据结构能够有效地利用磁盘空间。

下面介绍下Lucene.net中处理索引的类
IndexWriter
IndexWriter是索引中负责操作的核心,它负责把索引文件写入存储介质,是控制逻辑存储转换为物理存储的纽带。

Document
Document就是一条虚拟记录,可以理解为数据里的一行。正是有了它,才使我们可以很方便并且易于理解地操作索引文件。它一般记录了需要用到的一个文档的属性,当然,这需要和Field联合使用。

Field
Field类就是数据库里的一列。一个文档有标题,内容,作者,创建时间这四个属性的话,那么就需要四个Field保存这些属性,然后把四个Field加入到Document中。
Field的构造函数比较多。其中Store,Index和TermVector是通过内部类指定的。

(1)--Store 有三个选项:
Field.Store.COMPRESS表示被压缩存储;
Field.Store.YES表示储存;
Field.Store.NO表示不被存储。

(2)--Index的选项有四个:
Field.Index.NO表示不建立索引;
Field.Index.TOKENIZED表示分词后索引;
Index.NO_NORMS表示值存储内容;
Field.Index.UN_TOKENIZED表示不分词索引。

(3)--TermVector这个参数也不常用,它有五个选项。
Field.TermVector.NO表示不索引Token的位置属性;
Field.TermVector.WITH_OFFSETS表示额外索引Token的结束点;
Field.TermVector.WITH_POSITIONS表示额外索引Token的当前位置;
Field.TermVector.WITH_POSITIONS_OFFSETS表示额外索引Token的当前和结束位置;
Field.TermVector.YES则表示存储向量。

通过实例生成数据索引:

这里我将数据保存在Access数据库中,对Access数据库中的数据进行索引:
保存数据的表:数据库中保存了1000条数据
 

为数据创建索引代码:


using System;
using System.Data;
using System.Configuration;
using System.Web;
using System.Web.Security;
using System.Web.UI;
using System.Web.UI.WebControls;
using System.Web.UI.WebControls.WebParts;
using System.Web.UI.HtmlControls;

using System.Collections.Generic;
using System.Text;
using System.IO;
using System.Text.RegularExpressions;
using System.Data.SqlClient;
using Lucene.Net.Analysis;
using Lucene.Net.Documents;
using Lucene.Net.Index;
using Lucene.Net.Analysis.KTDictSeg;
using LuceneSearch;

/// <summary>
/// CreateIndex 的摘要说明
/// </summary>
public class CreateIndex
{
    
//词库路径
    public string wordPath;
    
public string indexDirectory;
    
//定义一个IndexWriter
    protected IndexWriter writer = null;
    
//需要导出的数目
    public int allNum;
    
//当前完成的数目
    public int completeNum;
    
//需要生成的表
    public DataTable dt;

    DAL.OperSql os 
= new DAL.OperSql();
    
public CreateIndex()
    {

    }

    
public void GetIndex(int inum)
    {
        
//定义分析器
        Analyzer KTDAnalyzer = new KTDictSegAnalyzer(wordPath);

        
//PerFieldAnalyzerWrapper可以对不同的Field进行不同的分析
        PerFieldAnalyzerWrapper wrapper = new PerFieldAnalyzerWrapper(KTDAnalyzer);

        wrapper.AddAnalyzer(
"ID", KTDAnalyzer);
        wrapper.AddAnalyzer(
"News_Url", KTDAnalyzer);
        wrapper.AddAnalyzer(
"News_Date", KTDAnalyzer);

        
//判断是否已有索引
        bool isure = !IndexReader.IndexExists(indexDirectory);
        
//创建索引的数据条数
        allNum = dt.Rows.Count;
        
//创建IndexWriter
        writer = new IndexWriter(indexDirectory, wrapper, isure); 
        writer.SetUseCompoundFile(
true); //显式设置索引为复合索引
        writer.SetMaxFieldLength(int.MaxValue); //设置域最大长度为最大值
        writer.SetMergeFactor(allNum + 100); //设置每100个段合并成一个大段
        writer.SetMaxMergeDocs(10000); //设置一个段的最大文档数
        writer.SetMaxBufferedDocs(1000); //设置在把索引写入磁盘前内存里文档的缓存个数
        
//创建IndexReader
        IndexReader reader = null;
        
bool needre = inum == 1;

        reader 
= IndexReader.Open(indexDirectory);
        
for (int i = 0; i < dt.Rows.Count; i++)
        {
            completeNum 
= i + 1;
            
string body = parseHtml(dt.Rows[i]["News_Body"].ToString());
            
string title = parseHtml(dt.Rows[i]["News_Title"].ToString());

            
if (title.Length > 2 && body.Length > 2)
            {
                
if (needre)
                {
                    Term term 
= new Term("ID", dt.Rows[i]["ID"].ToString());
                    reader.DeleteDocuments(term);

                }
                Document document 
= new Document();

                document.Add(
new Field("ID", dt.Rows[i]["ID"].ToString() ?? "", Field.Store.YES, Field.Index.UN_TOKENIZED));
                document.Add(
new Field("News_Title", title, Field.Store.NO, Field.Index.TOKENIZED));
                document.Add(
new Field("News_Body", body, Field.Store.NO, Field.Index.TOKENIZED));
                document.Add(
new Field("News_Url", dt.Rows[i]["News_Url"].ToString() ?? "", Field.Store.YES, Field.Index.UN_TOKENIZED));
                document.Add(
new Field("News_Date", DateField.DateToString(Convert.ToDateTime(dt.Rows[i]["News_Date"].ToString())) ?? "", Field.Store.YES, Field.Index.UN_TOKENIZED));
                writer.AddDocument(document);;
            }
        }
        reader.Close();
        writer.Optimize();
        writer.Close();

    }
}

传入参数,生成索引文件:


try
        { 
            ci.wordPath 
= Server.MapPath("App_Data"+ @"\"//词库路径;
            ci.indexDirectory = Server.MapPath("index"+ @"\"//词库路径;
            ci.dt = dt;
            ci.GetIndex(
1);           
        }

其中dt是保存数据的DataTable,wordpath是分词器的词库文件chsstopwords.txt,engstopwords.txt,dict.dct的路径,indexDirectory是生成索引文件的路径。
生成索引成功后,我们会在index文件夹下看到生成的文件:

这样,我们就创建好了数据的索引。检索数据的时候,我们就可以利用它快速的对数据进行检索。

posted on 2010-01-13 13:55  HackerVirus  阅读(434)  评论(0编辑  收藏  举报