solr学习笔记-linux下配置solr
本文地址:
?
首先介绍一下solr:
Apache Solr (读音:?SOLer)?是一个开源、高性能、采用Java开发、基于Lucene的全文搜索服务器,文档通过Http利用XML加到一个搜索集合中,查询该集合也是通过 http收到一个XML/JSON响应来实现。Solr 中存储的资源是以 Document 为对象进行存储的。每个文档由一系列的 Field 构成,每个 Field 表示资源的一个属性。Solr 中的每个 Document 需要有能唯一标识其自身的属性,默认情况下这个属性的名字是 id,在 Schema 配置文件(schema.xml)中使用:<uniqueKey>id</uniqueKey>
进行描述。solr有两个核心文件,solrconfig.xml和schema.xml。solrconfig.xml是solr的基础文件,里面配置了各种web请求处理器、请求响应处理器、日志、缓存等;schema.xml配置映射了各种数据类型的索引方案,分词器的配置、索引文档中包含的字段也在此配置。
工作中主要用来分词和搜索,简单的工作原理是:利用分词器对数据源进行分词处理,然后根据分词结果建立索引库;查询的时候,利用分词器对查询语句进行分词,根据查询语句分词的结果在索引库中进行匹配,最后返回结果。
废话少说,下面开始solr之旅吧:
一.安装JDK和Tomcat
(1):安装jdk ?下载jdk安装包,解压到jdk-1.x目录(2):安装tomcat,下载tomcat安装包,解压到apache-tomcat目录下
修改tomcat安装目录下的conf目录的server.xml
找到<Connector port="8080" .../>,加入URIEncoding=
<Context docBase="/home/zhoujh/java/apache-tomcat7/webapps/solr.war" debug="0" crossContext="true" >
? ?<Environment name="solr/home" type="java.lang.String" value="/home/zhoujh/java/apache-tomcat7/solr" override="true" />
</Context>
然后在tomcat的bin目录下执行./startup.sh,启动tomcat
在地址栏访问http://localhost:8080/solr/
将会出现solr欢迎界面和admin入口
注:如果出现org.apache.solr.common.SolrException: Error loading class 'solr.VelocityResponseWriter' 异常,最简单的解决方法:找到$TOMCAT_HOME/solr/conf/solrconfig.xml,把<queryResponseWriter name="velocity" enable="${solr.velocity.enabled:true}"/>注释掉或者enable:false即可。如果一切顺利的话,现在可以看到solr的web管理界面了。不过要想实现分词的功能,得安装一个中文分词器,这里推荐IKAnalyzer或mmseg4j。
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包,采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力,采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。优化的词典存储,更小的内存占用。支持用户词典扩展定。
mmseg4j 用 Chih-Hao Tsai 的 MMSeg 算法(http://technology.chtsai.org/mmseg/?)实现的中文分词器,并实现 lucene 的 analyzer 和 solr 的TokenizerFactory 以方便在Lucene和Solr中使用。MMSeg 算法有两种分词方法:Simple和Complex,都是基于正向最大匹配。Complex 加了四个规则过虑。官方说:词语的正确识别率达到了 98.41%。mmseg4j 已经实现了这两种分词算法。
三. 配置中文分词器
下面分别安装这两个中文分词器,当然选择安装其中一个也是可以的。
(1)安装IKAnalyzer
下载地址:
?添加一个索引字段field,并应用上面配置的fieldtype
然后找到这一句:<defaultSearchField>text</defaultSearchField>把它改成<defaultSearchField>game_name</defaultSearchField>
在浏览器打开http://localhost:8080/solr/admin/analysis.jsp,就可以进行分词处理了。
IKAnalyzer添加自定义分词词典:词典文件格式为无BOM的UTF-8编码的文本文件,文件扩展名不限,一次可以添加多个词库,每个词库以";"分开。把IKAnalyzer目录下的IKAnalyzer.cfg.xml和stopword.dic拷贝到$TOMCAT_HOME/webapps/solr/WEB_INF/classes目录下,可以自己新建一个mydic.dic文件,然后在IKAnalyzer.cfg.xml里进行配置。
(2)安装mmseg4j
?注意:dicPath的值改成你自己机器上相应的目录。
然后修改之前添加的filed,让其使用mmseg4j分词器
?配置mmseg4j分词词典:MMSEG4J的词库是可以动态加载的,词库的编码必须是UTF-8,mmseg4j 默认从当前目录下的 data 目录读取上面的文件,当然也可以指定别的目录,比如我就放在自定义的dict目录下。自定义词库文件名必需是 "words" 为前缀和 ".dic" 为后缀。如:/data/words-my.dic。
这里直接把mmseg4j/data目录下的所有.dic文件拷贝到$TOMCAT_HOME/solr/dict目录下。共有:4个dic文件,chars.dic、units.dic、 words.dic、 words-my.dic。下面简单解释一下这几个文件的作用。
1、chars.dic,是单个字,和对应的频率,一行一对,字在全面,频率在后面,中间用空格分开。这个文件的信息是 complex 模式要用到的。在最后一条过虑规则中使用了频率信息。
2、units.dic,是单位的字,如:分、秒、年。
3、words.dic,是核心的词库文件,一行一条,不需要其它任何数据(如词长)。
4、words-my.dic,是自定义词库文件
在浏览器打开http://localhost:8080/solr/admin/analysis.jsp,就可以看到分词效果了。
现在,这两种分词方法都已配置好了,想用哪种就把查询的filed的type设置成哪种。
四. 导入文档数据
现在添加文本搜索的功能,首先导入数据源。
切换到/home/zhoujh/java/solr/apache-solr/example/exampledocs目录下,该目录下有很多xml文件,随便copy一个,改名位game_data.xml。如:cp hd.xml game_data.xml,修改内容如下:
??不过在现实工作中,一般利用数据库作为数据源,下面我们来配置solr连接数据库源。
五. solr从数据库导入数据
(1)安装mysql,
安装完后执行以下命令:启动mysql服务,进入mysql,创建数据库kw_game,创建表game,导入数据
?注: deltaImportQuery、deltaQuery:增量更新时用到,因为在schema.xml中已经有game_name和id字段了,只需在schmema.xml添加add_time字段,格式为date或者string。
在浏览器输入下面两个地址,导入数据创建索引。
更新全部:
六. 配置多个实例
最后简单介绍一下如何配置多个实例,编辑$TOMCAT_HOME/solr/solr.xml
此时访问的时候必须得在solr后加上各实例的名称
http://localhost:8080/solr/game/admin
http://localhost:8080/solr/game2/admin
?