下面说的主要是lucene如何进行搜索,相比于建索引,搜索可能更能提起大家的兴趣。
下面通过表格来看一下lucene用到的主要的搜索API
类 | 目的 |
---|---|
IndexSeacher | 搜索操作的入口,所有搜索操作都是通过IndexSeacher实例使用一个重载的search方法来实现 |
Query(及其子类) | 具体的Query子类为每一种特定类型的查询进行逻辑上的封装。Query实例被传递到IndexSearcher的search方法中 |
QueryParser | 将用户输入的(并且可读的)查询表达式处理为一个具体的Query对象 |
TopDocs | 保持由IndexSearcher.search()方法返回的具有较高评分的顶部文档 |
ScoreDoc | 提供对TopDocs中每条搜索结果的访问接口 |
其中IndexSearcher是对索引中文档进行搜索的核心类,我们下面的例子中就会对subject域进行索引,使用的是Query的子类TermQuery。
测试程序如下:
1 public void testTerm() throws Exception {
2 Directory dir = TestUtil.getBookIndexDirectory(); //A
3 IndexSearcher searcher = new IndexSearcher(dir); //B
4
5 Term t = new Term("subject", "ant");
6 Query query = new TermQuery(t);
7 TopDocs docs = searcher.search(query, 10);
8 assertEquals("Ant in Action", //C
9 1, docs.totalHits); //C
10
11 t = new Term("subject", "junit");
12 docs = searcher.search(new TermQuery(t), 10);
13 assertEquals("Ant in Action, " + //D
14 "JUnit in Action, Second Edition", //D
15 2, docs.totalHits); //D
16
17 searcher.close();
18 dir.close();
19 }
当然在不同的情况下你可以改变其中的代码来搜索你想要的东西。
lucene中解析用户的查询需要一个Query对象作为参数。那么也就是将Expression组合成Query的过程,这里边有一个对象叫QueryParser,它将前面传过来的规则的解析成对象然后进行查询。下面我们看下流程是如何处理的:
图:QueryParser对象处理复杂的表达式的过程
下面看一个程序示例,这个是基于lucene 3.0的,在后面的版本中会有所变化。
程序结构如下:
1 public void testQueryParser() throws Exception {
2 Directory dir = TestUtil.getBookIndexDirectory();
3 IndexSearcher searcher = new IndexSearcher(dir);
4
5 QueryParser parser = new QueryParser(Version.LUCENE_30, //A
6 "contents", //A
7 new SimpleAnalyzer()); //A
8
9 Query query = parser.parse("+JUNIT +ANT -MOCK"); //B
10 TopDocs docs = searcher.search(query, 10);
11 assertEquals(1, docs.totalHits);
12 Document d = searcher.doc(docs.scoreDocs[0].doc);
13 assertEquals("Ant in Action", d.get("title"));
14
15 query = parser.parse("mock OR junit"); //B
16 docs = searcher.search(query, 10);
17 assertEquals("Ant in Action, " +
18 "JUnit in Action, Second Edition",
19 2, docs.totalHits);
20
21 searcher.close();
22 dir.close();
23 }
其实主要就是A和B两部分,将规则解析成lucene能识别的表达式。
下面的表格中列出了查询表达式的范例:
表达式 | 匹配文档 |
---|---|
java | 在字段中包含java |
java junit java or junit | 在字段中包含java或者junit |
+java +junit java and junit | 在字段中包含java以及junit |
title:ant | 在title字段中包含ant |
title:extreme -subject:sports title:extreme AND NOT subject:sports | 在title字段中包含extreme并且在subject字段中不能包含sports |
(agile OR extreme) AND methodology | 在字段中包含methodology并且同时包括agile或者extreme |
title:"junit in action" | 在title字段中包含junit in action |
title:"junit action"~5 | 包含5次junit和action |
java* | 包含以java开头的,例如:javaspaces,javaserver |
java~ | 包含和java相似的,如lava |
lastmodified:[1/1/04 TO 12/31/04] | 在lastmodified字段中值为2004-01-01到2004-12-31中间的 |
接下来测试一下QueryParser的各个表达式,程序结构如下:
1 public class TestQueryParser {
2
3 public static void main(String[] args) throws Exception {
4
5 String[] id = { "1", "2", "3" };
6 String[] contents = { "java and lucene is good",
7 "I had study java and jbpm",
8 "I want to study java,hadoop and hbase" };
9
10 Directory directory = new RAMDirectory();
11 IndexWriter indexWriter = new IndexWriter(directory,
12 new IndexWriterConfig(Version.LUCENE_36, new StandardAnalyzer(
13 Version.LUCENE_36)));
14 for (int i = 0; i < id.length; i++) {
15 Document document = new Document();
16 document.add(new Field("id", id[i], Field.Store.YES,
17 Field.Index.ANALYZED));
18 document.add(new Field("contents", contents[i], Field.Store.YES,
19 Field.Index.ANALYZED));
20 indexWriter.addDocument(document);
21 }
22 indexWriter.close();
23
24 System.out.println("String is :java");
25 search(directory, "java");
26
27 System.out.println("\nString is :lucene");
28 search(directory, "lucene");
29
30 System.out.println("\nString is :+java +jbpm");
31 search(directory, "+java +jbpm");
32
33 System.out.println("\nString is :+java -jbpm");
34 search(directory, "+java -jbpm");
35
36 System.out.println("\nString is :java jbpm");
37 search(directory, "java jbpm");
38
39 System.out.println("\nString is :java AND jbpm");
40 search(directory, "java AND jbpm");
41
42 System.out.println("\nString is :java or jbpm");
43 search(directory, "java or jbpm");
44 }
45
46 public static void search(Directory directory, String str) throws Exception {
47 IndexSearcher indexSearcher = new IndexSearcher(directory);
48 Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_34);
49 QueryParser queryParser = new QueryParser(Version.LUCENE_34,
50 "contents", analyzer);
51 Query query = queryParser.parse(str);
52 TopDocs topDocs = indexSearcher.search(query, 10);
53 ScoreDoc[] scoreDoc = topDocs.scoreDocs;
54 for (int i = 0; i < scoreDoc.length; i++) {
55 Document doc = indexSearcher.doc(scoreDoc[i].doc);
56 System.out.println(doc.get("id") + " " + doc.get("contents"));
57 }
58 indexSearcher.close();
59 }
60 }
运行程序就会得到输出结果。
我想看图应该会比较清晰,下面的图比较清晰的组合了程序的结构:
图:搜索用到的各个类的相互关系
其实这个所谓的分页跟数据库的分页功能差不多,只是一个是从数据库中读取数据,而一个是从索引文件中找到对应的数据。
在lucene搜索分页过程中,可以有两种方式:
而我们可以将这两种方式结合下,每次查询都多缓存一部分的结果集,翻页的时候看看所查询的内容是不是在已经存在在缓存当中,如果已经存在了就直接拿出来,如果不存在,就进行查询后,从缓存中读出来。比如:现在我们有一个搜索结果集 一个有100条数据,每页显示10条,就有10页数据。按照第一种的思路就是,我直接把这100条数据缓存起来,每次翻页时从缓存种读取而第二种思路就是,我直接从搜索到的结果集种显示前十条给第一页显示,第二页的时候,我在查询一次,给出10-20条数据给第二页显示,我每次翻页都要重新查询。
第三种思路就变成了
我第一页仅需要10条数据,但是我一次读出来50条数据,把这50条数据放入到缓存当中,当我需要10--20之 间的数据的时候,我的发现我的这些数据已经在我的缓存种存在了,我就直接存缓存中把数据读出来,少了一次查询,速度自然也提高了很多. 如果我访问第六页的数据,我就把我的缓存更新一次.这样连续翻页10次才进行两次IO操作同时又保证了内存不容易被溢出.而具体缓存设置多少,要看你的服务器的能力和访问的人数来决定。
下面是一个示例程序没有做缓存,缓存的部分可以自己实现,也可以选择ehcache等开源的实现。
程序结构如下:
1 public class TestPagation {
2
3 public void paginationQuery(String keyWord, int pageSize, int currentPage)
4 throws ParseException, CorruptIndexException, IOException {
5 String[] fields = { "title", "content" };
6 // 创建一个分词器,和创建索引时用的分词器要一致
7 Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_36);
8
9 QueryParser queryParser = new MultiFieldQueryParser(Version.LUCENE_36,
10 fields, analyzer);
11 Query query = queryParser.parse(keyWord);
12
13 // 打开索引目录
14 File indexDir = new File("./indexDir");
15 Directory directory = FSDirectory.open(indexDir);
16
17 IndexReader indexReader = IndexReader.open(directory);
18 IndexSearcher indexSearcher = new IndexSearcher(indexReader);
19
20 // TopDocs 搜索返回的结果
21 TopDocs topDocs = indexSearcher.search(query, 100);// 只返回前100条记录
22 int totalCount = topDocs.totalHits; // 搜索结果总数量
23 ScoreDoc[] scoreDocs = topDocs.scoreDocs; // 搜索返回的结果集合
24
25 // 查询起始记录位置
26 int begin = pageSize * (currentPage - 1);
27 // 查询终止记录位置
28 int end = Math.min(begin + pageSize, scoreDocs.length);
29
30 // 进行分页查询
31 for (int i = begin; i < end; i++) {
32 int docID = scoreDocs[i].doc;
33 Document doc = indexSearcher.doc(docID);
34 int id = NumericUtils.prefixCodedToInt(doc.get("id"));
35 String title = doc.get("title");
36 System.out.println("id is : " + id);
37 System.out.println("title is : " + title);
38 }
39
40 }
41
42 public static void main(String[] args) throws CorruptIndexException, ParseException, IOException {
43 TestPagation t = new TestPagation();
44 //每页显示5条记录,显示第三页的记录
45 t.paginationQuery("RUNNING",5,3);
46 }
47
48 }