使用lucene 3.0.0 索引和检索中文文件

一. 我本来的程序

    其实我本来的程序挺简单, 完全修改自Demo里面的SearchFiles和IndexFiles. 唯一不同的是引用了SmartCN的分词器.

    我把修改那一点的代码贴出来.

    IndexhChinese.java:

Date start = new Date();
try {
  IndexWriter writer = new IndexWriter(FSDirectory.open(INDEX_DIR), 
          new SmartChineseAnalyzer(Version.LUCENE_CURRENT), true, IndexWriter.MaxFieldLength.LIMITED);
  indexDocs(writer, docDir);
  System.out.println("Indexing to directory '" +INDEX_DIR+ "'...");
  System.out.println("Optimizing...");
  //writer.optimize();
  writer.close();
 
  Date end = new Date();
  System.out.println(end.getTime() - start.getTime() + " total milliseconds");
 
} 

    SearchChinese.java

Analyzer analyzer = new SmartChineseAnalyzer(Version.LUCENE_CURRENT);
 
BufferedReader in = null;
if (queries != null) {
  in = new BufferedReader(new FileReader(queries));
} else {
  in = new BufferedReader(new InputStreamReader(System.in, "GBK"));
}

     在这里, 我制定了输入的查询是采用GBK编码的.

     然后我充满信心的运行后......发现无法检索出中文, 里面的英文检索是正常的.

 

二. 发现问题.

     于是我就郁闷了, 由于对于java与lucene都是太熟悉, 而且用的3.0.0版外面的讨论又不是太多, 就瞎折腾了一会儿, 发现我如果把文件的格式另存为ansi就可以检索中文了(以前是utf-8的), 看来是文件编码的问题, 摸索了一下, 在indexChinese.java中发现了如下的代码:

static void indexDocs(IndexWriter writer, File file)
  throws IOException {
  // do not try to index files that cannot be read
  if (file.canRead()) {
    if (file.isDirectory()) {
      String[] files = file.list();
      // an IO error could occur
      if (files != null) {
        for (int i = 0; i < files.length; i++) {
          indexDocs(writer, new File(file, files[i]));
        }
      }
    } else {
      System.out.println("adding " + file);
      try {
        writer.addDocument(FileDocument.Document(file));
      }
      // at least on windows, some temporary files raise this exception with an "access denied" message
      // checking if the file can be read doesn't help
      catch (FileNotFoundException fnfe) {
        ;
      }
    }
  }

     重点在于这一句:

try {
  writer.addDocument(FileDocument.Document(file));
}

    读取文件的代码应该就在这里面, 跟踪进去:

public static Document Document(File f)
     throws java.io.FileNotFoundException, UnsupportedEncodingException {
  Document doc = new Document();
 
  doc.add(new Field("path", f.getPath(), Field.Store.YES, Field.Index.NOT_ANALYZED));
 
  doc.add(new Field("modified",
      DateTools.timeToString(f.lastModified(), DateTools.Resolution.MINUTE),
      Field.Store.YES, Field.Index.NOT_ANALYZED));
  
  doc.add(new Field("contents", FileReader(f)));
 
  // return the document
  return doc;
}
 
private FileDocument() {}
}

     这是Lucene的一个内部类, 作用就是从一个文本文件中获取内容, 生成的Document默认有3个域: path, modified, content, 而content就是文件的文本内容了. 看来是FileReader(f), 这个函数出了问题了, 根本没有制定采用什么编码进行读取啊, 于是把这儿简单的修改了一下.

FileInputStream fis=new FileInputStream(f);
//   按照 UTF-8 编码方式将字节流转化为字符流
InputStreamReader isr=new InputStreamReader(fis,"UNICODE");
//   从字符流中获取文本并进行缓冲
BufferedReader br=new BufferedReader(isr);
 
doc.add(new Field("contents", br));

     至于那个"Unicode"可以修改为支持的所有编码, 当我修改为"utf-8"后就可以正常使用了.

三. 一些猜测:

     对于Lucene索引文件的时候, 编码是没有关系的, 只要正确指定了, 那么输出的文件都是可以被正常检索到的, 也就是说, 不同的编码文件索引后的结果一样(求证)

posted @ 2010-01-14 15:14  LeftNotEasy  阅读(5746)  评论(4编辑  收藏  举报