主题搜索引擎的探究
扫描二维码
随时随地手机看文章
搜索引擎是本上世纪90年代兴起的信息检索技术,经过十多年的发展,它已经渗透到了人们生活的各个领域。然而,传统的搜索引擎,也即通用搜索引擎,考虑了所有人的需求,即不管用户是希望找计算机论文方面的信息还是要找篮球运动的信息都一致对待,这样的搜索引擎需要耗费巨大的资源而速度较慢。并且,由于通用搜索引擎所面向的领域太广泛,某些利于用户提高检索精度和查全率的技术,比如自动分类,在其中的应用效果不理想。
在Lucene API的基础上开发面向主题的搜索引擎[1]是一种有效、低成本的选择,因为Lucene全文数据库采用倒排文件索引技术[2],所以查询速度优于关系型数据库,而且可以免费下载。基于Lucene的优势已有很多企业将其应用到自己的搜索引擎中,如Eclipse开发环境的内部搜索引擎就是用Lucene构建的。但由于Lucene自带的中文分词只能将中文切成单字不能实现词语的切分,因此,符合需求的中文分词器有待人们去开发,并将其加入中文分词模块来实现更高效的检索。
1 全文检索引擎Lucene
1.1 Lucene简介
Lucene是apache软件基金会4jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,即它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎(英文与德文两种西方语言)。Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。
Lucene是一个高性能、可伸缩的信息搜索(IR)库。它使你可以为你的应用程序添加索引和搜索能力。Lucene是用java实现的成熟的、免费的开源项目,是着名的ApacheJakarta大家庭的一员,并且基于在Apache软件许可[ASF,License].同样,Lucene是当前与近几年内非常流行的免费的Java信息搜索(IR)库。
1.2 Lucene系统结构
Lucene系统结构[2]如图1所示。从图1中可以看到,Lucene的系统由基础结构封装、索引核心、对外接口三大部分组成。其中,直接操作索引文件的索引核心又是系统的重点。Lucene将所有源码分为7个模块(在Java语言中以包来表示),各个模块所表示的系统部分见图1.需要说明的是:org.apache.lucene.queryPaser是org.apache.lucene.search的语法解析器,不被系统之外实际调用,因此没有当作对外接口看待。从面向对象的观点来考虑,Lucene应用了最基本的一条程序设计准则:引入额外的抽象层以降低耦合性。首先,引入对索引文件的操作org.apache.lucene.STore的封装,然后将索引部分的实现建立在org.apache.lucene.index之上,完成对索引核心的抽象。在索引核心的基础上开始设计对外的接口org.apache.lucene.search及org.apache.lucene.analysis.
Lucene秉承了开放源代码一贯的架构优良的优势,设计了一个合理而极具扩充能力的面向对象架构,程序员可以在Lucene的基础上扩充各种功能,比如扩充中文处理能力,从文本扩充到HTML、PDF等等文本格式的处理,编写这些扩展的功能不仅仅不复杂,而且由于Lucene恰当合理的对系统设备做了程序上的抽象,扩展的功能也能轻易的达到跨平台的能力。
1.3 Lucene程序运行机制
Lucene系统功能强大,实现复杂,但从根本上主要包括2个主要功能:(1)建立索引库[4],也就是将待索引的纯文本内容经切分词后索引入库;(2)检索索引库,即根据查询条件从索引库中找出符合条件的文档。
在研究建立索引库时首先要知道如图2所示的Lucene索引机制的架构。
从图2可以看出,Lucene索引过程分为3个主要操作阶段:将数据转换成文本;分析文本;将分析过的文本保存到索引库中。首先,Lucene使用各种解析器对各种不同类型的文档进行解析,如对于HTML文档,HTML解析器会做一些预处理的工作,过滤文档中的HTML标签等,然后输出文本内容,接着Lucene的分词器从文本内容中提取出索引项以及相关信息。
检索索引库的运行逻辑如下:
(1)输入查询条件,如用户希望查询到含有词"编程"和"入门"但不含词"Java"的记录,则输入条件为"编程+入门-Java";查询条件输入搜索器(lucene.search),搜索器里有1个查询解析器(lucene.queryParser),搜索器调用这个查询解析器来解析查询条件。
(2)查询条件"编程+入门-Java"被传送到查询解析器中,解析器将对"编程+入门-Java"进行分析,首先分析器解析字符串的连接符,即加号和减号,然后调用语言解析器(lucene.analysis)对每个词进行切词,一般英文将按空格来切词,最后得到的查询条件表示为:"编程"AND"入门"AND NOT"Java".
(3)查询器根据查询条件检索事先已建立好的索引库,得到查询结果,并返回结果集lucene.search.Hits,Hits类似于JDBC中的ResultSet.
2 中文分词
因为Lucene提供的两个中文分析器(ChineseAnalyzer和CJKAnalyzer)只能将中文切成单汉字,这对于绝大多数中文用户来说很不方便,因此有必要开发适合自己的中文分析器。本系统基于字符串匹配的分词技术实现了一个中文分词器。它是按照一定的策略将待分析的汉字串与1个"充分大的"词库中的词条进行匹配。若在词库中找到某个字符串则匹配成功(识别出1个词)。按照扫描方向的不同,串匹配分词方法[5]可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配。本研究使用的方式是采用基于字典的双向匹配算法,即需要进行正向和逆向2次匹配。传统的方法都是先进行1次正向匹配,然后再进行逆向匹配,每次只有1个方向在进行匹配,而另1个方向的匹配过程需要第1个结束后才开始。本文的设计方法是把多线程技术引入到中文分词程序当中[6].因此可以在正向匹配时,同时并发地执行逆向匹配,提高了运行速度和执行效率。以下为正向匹配和逆向匹配都将调用的核心程序:
载入处理完的文本,以字符数组的形式存储起来。建立2个方法:(1)查找在文本中出现的词,并且返回词的长度;(2)用来统计词出现的次数和控制程序进度。
方法1:public int zhaoCi(char[] ch,int juli,TreeMap[] tmp)。[!--empirenews.page--]
ch数组表示的是文本内容,juli是词的长度, TreeMap数组存储不同长度的词。
方法2:public synchrONized void ciPinTongJi(HashMaphm,char[]ch,int size,TreeMap[] tmp)。
方法2是并发执行的,正反匹配都需要这个方法。HashMap存储字典中词的第1个字,ch数组表示的是文本内容,size是文件的长度,TreeMap是数组存储不同长度的词,按照2个字、3个字、多个字的存储顺序存储; 而且方法2是对外的接口,方法2调用方法1,并利用方法1返回的结果得到分词的结果和词频结果。当从文本读入1个字时,使用contain( )来判断HashMap中是否存在这个字的映射,如果存在就取得长度等于字典中最长词的一段内容,在TreeMap数组中进行查找,如果在TreeMap中找到对应的映射则对应的键值加1,输出时在词后面加上分割符号'',然后继续重复前面的步骤,直到文件结束,退出;如果TreeMap中不存在,那么i+1,读取下一个字,重复前面的步骤,直到文件的结尾,退出,程序结束。
正向匹配程序流程图如图3所示。
3 全文检索引擎Lucene的应用
Lucene本身只是一个组件,若想让Lucene真正起作用,还得在Lucene基础上进行必要的2次开发[7].下面的方案是对Lucene的应用研究,在本系统实现过程中要解决的关键问题有:数据加工及文本数据库的实现;全文数据索引;全文数据检索和结果处理。
3.1 运行环境
操作系统:Windows NT/2000/xp;开发语言:Java、JSP;开发环境:MyEclipse6.5;API插件:Lucene2.3.2(Jakarta Lucene是一套免费的开放源代码,由 Apache Jakarta开发);Web服务器:Apache的Tomcat6.0.
Lucene在Java环境下运行,因此首先要安装jdk并设置环境变量JAVA_HOME,还要安装tomcat6.0.到Lucene的官方网站下载1份拷贝(笔者下载的是最新版2.3.2),下载后将得到一个名为lucene-2.3.2.zip和apache-ant-1.7.0-bin.zip的压缩文件,将其解压即可。
3.2 系统结构
该应用分为3部分:(1)数据库发布平台,包括服务器、Java环境、Lucene API、中文分词模块;(2)HTML文件倒排档生成系统;(3)服务器端执行的JSP程序和用户界面。系统结构如图4所示。
3.3 Lucene的扩展
对于Lucene组件包,为了能够支持中文,要进行修改。首先将改写后支持中文的分析包IKAnalyzer.jar加入到发布包Analysis包中。解开Lucene.zip,在解开的目录srcdemoorgapacheLucenedemo下打开IndexHTML. java.在第1处"import org. apache. lucene. analysis. standard. StandardAnalyzer;"下面加1行"import org.apache. lucene. analysis. IKAnalyzer;",把第2处"writer=new IndexWriter (index, new StandardAnalyzer (),create);"注释掉,换成"writer=new IndexWriter(index,new ChineseAnalyzer(), create);"解开Luceneweb. War,释放出configuration. jsp和result. jsp以及web. xml.编辑configuration. Jsp,找到indexLocation变量,赋值成"/index"(或者用户自己建立的索引的目录名称);编辑result. Jsp,找到"Analyzer analyzer=new StopAnalyzer();"删除或者注释掉,改成"Analyzer analyzer=new org. apache. lucene. analysis. IKAnalyzer();".这样就扩展了Lucene的中文分词的功能。
Lucene并没有规定数据源的格式,而只提供了1个通用的结构(Document对象)来接收索引的输入,因此输入的数据源可以是:数据库、WORD文档、PDF文档、HTML文档……,只要能够设计相应的解析转换器将数据源构造成Docuement对象即可进行索引。本设计实现了doc、ppt、xls、pdf、txt、xml解析转换器将其文本信息提取出来。
3.4 搜索性能的比较
经过多次测试取平均值,本设计在搜索主题信息的平均速度上比Google要快,虽然数量上不如Google检索的多,但在信息符合度上明显比其强。这样就已经符合主题用户,不一定要多只要精而且节省时间的需求,这对于当今效率优先的市场来说是非常有竞争力的。应用Lucene的搜索引擎的检索速度与计算机的配置有关,配置较好的计算机的搜索时间相对要少。以检索关键字编程为例,Lucene与Google性能比较结果如表1所示。
全文检索引擎Lucene所构建的搜索引擎的搜索个数是由磁盘存储的信息量的多少决定的,搜索时间除了第1次检索有点慢,以后的时间耗费明显少于通用搜索引擎。虽然通用搜索引擎提供的信息量大,但是并不是所有的信息都符合用户的需求,用户要在大量的信息中筛选有用的信息要花费大量的时间,可见主题搜索引擎的优势,本设计基本符合预期的结果。
本文提出了一种解决中文全文检索的方法,嵌入到Lucene中可以应用到搜索引擎、中小企业网站站内检索、个人用户桌面搜索引擎建立、特定文档检索数据库建立等,从而实现对目标文档方便地检索管理,提高检索效率。并且通过对全文检索引擎Lucene的研究以及在Lucene API上的扩展,可以开发出多种应用程序,如:网站内容搜索系统、可检索的邮件系统、海量文献数据搜索系统。为了开发出性能指标更高的搜索引擎可以根据现有的排序算法或自定义排序算法自行开发结果排序模块加入到Lucene中来进行测试比较,这些都有待于继续研究。