Solr 4.3.1稳定版 安装部署平台搭建

前言:  
         之前发表的SolrCloud写的太简洁(其实附件中的文档是很详细的)这里对于Solr我打算细致的好好写一篇。

         这篇文章讲解了哪儿些功能的实现呢?

         第一:能通过http://localhost:7080/solr/ 正常访问solr,介绍三种solr/home的配置方式(这里用JNDI方式实现)分别为:基于JNDI、基于当前路径、基于环境变量的方式

         第二:实现三种中文分词器的安装,包括:smartcn 分词器、IK 分词器、mmseg4j分词器、

         第三:实现中英停词词库、sogou词库、扩展词库的安装

         第四:简单介绍下拼音分词器的安装,拼音检索主要是要支持suggest,目前还没有发现Solr能 很好的实现拼音检索的功能,随后会发表一片介绍用Lucene来自定义实现汉语转拼音,切分,并能很好的支持suggest。

运行环境:

    运行系统:windows7(这里以windows7做实例,windows、Linux等系统下的搭建大同小异)
    运行容器:apache-tomcat-7.0.37-windows-x64
    Solr版本:solr-4.3.1

准备工作:

    下载tomcat 7: http://tomcat.apache.org/download-70.cgi
    下载Solr4.3.1:http://archive.apache.org/dist/lucene/solr/
    下载IKAnalyzer的发行包:http://ik-analyzer.googlecode.com/files/IK%20Analyzer%202012FF_hf1.zip
    下载mmseg4j的发行包:https://mmseg4j.googlecode.com/files/mmseg4j-1.9.1.zip
    下载smartcn的发行包:smartcn是跟solr同步的,solr例中有,所以不需要额外的下载
    下载sogou词库:http://code.google.com/p/mmseg4j/downloads/detail?name=sogou-dic-utf8.zip&   can=2&q
    下载中文停词词库:见附件(英文停词词库在安装IK分词器的时候顺便已经安装)
    下载pinyinAnalyzer:见附件
    下载拼音pinyin4j-2.5.0:http://pinyin4j.sourceforge.net/(附件中也有)
    下载lucene-4.3.1:见附件(拼音分词我们需要里面的lucene-analyzers-common-4.3.1.jar和lucene-core-4.3.1.jar,附件中有这俩jar,如果你下载了lucene-4.3.1,解压后在lucene-4.3.1\analysis\common和lucene-4.3.1\core中可以找到这俩jar包)

开始部署:

第一:能通过http://localhost:7080/solr/ 正常访问solr(包含三种solr/home的配置方式的介绍)   

    1.F盘下新建winsolr文件夹,将下载的Tomcat压缩包考进winsolr,(若能保证此Tomcat端口与本机其他Tomcat端口不冲突则不需改端口)解压后修改tomcat\conf下的server.xml文件将Server port=“”端口改为:7005
      protocol="HTTP/1.1" 的port改为:7080


    2.保证tomcat启动及环境正常


    3.将下载的 solr-4.3.1.zip 解压 ,将solr-4.3.1\dist\solr-4.3.1.war文件复制到tomcat的webapps目录下,并将文件命名为solr.war


      注:war是一个完整的web应用程序,包括了solr的jar文件和所有运行Solr所依赖的Jar文件,Jsp和很多的配置文件与资源文件。


    4.修改tomcat\conf下的server.xml文件
      <Connector port="7080" protocol="HTTP/1.1"
        connectionTimeout="20000"
        URIEncoding="UTF-8"
        redirectPort="8443" />
       增加URIEncoding="UTF-8" 中文支持。

    5.配置solr/home(可以有三种方式,这里是用基于JNDI的方式实现)

       方式一:基于JNDI的方式

        1).F:\winsolr下新建solr_home文件夹


        2).复制solr-4.3.1\example下的solr文件夹到F:\winsolr\solr_home里。注:该目录为solr的应用环境目录。


        3).在F:\winsolr\solr_home\solr\collection1下新建data目录


        4).修改F:\winsolr\solr_home\solr\collection1\conf里的solrconfig.xml文件中的dataDir一行内容为:
    

<dataDir>${solr.data.dir:F:\winsolr\solr_home\solr\collection1\data}</dataDir>

 
      注:目的是为了指定存放索引数据的路径。(F:\winsolr\solr_home\solr\collection1\data 这个 data 目录需要自己创建 也可以任意指定路径)。在4.3.1版本中 solr下面没有了 conf文件 多了一个 collection1,在solr.xml配置文件中
    

<cores adminPath="/admin/cores" defaultCoreName="collection1" host="${host:}"      
         hostPort="${jetty.port:8983}" hostContext="${hostContext:solr}" 
          zkClientTimeout="${zkClientTimeout:15000}">
        <core name="collection1" instanceDir="collection1" />
     </cores>
   </solr>

 
   明确指出了 conf的位置 也可以修改  <core name="collection1" instanceDir="collection1" /> 改变其目录路径 ,默认加载 conf文件下面的内容。


        5).新建tomcat\conf\Catalina\localhost目录 在此目录下新建solr.xml文件,文件中增加
     

<?xml version="1.0" encoding="UTF-8"?>

<Context docBase="F:\winsolr\apache-tomcat-7.0.37\webapps\solr.war" debug="0" crossContext="true">

<Environment name="solr/home" type="java.lang.String" value="F:\winsolr\solr_home\solr" override="true"/>

</Context>

 

      注:其中docBase为tomcat的webapps下的solr.war完整路径。Environment的value属性的值为存放solr索引的文件夹。
   
       6).将 solr-4.3.1\example\lib\ext下的所有jar文件复制到tomcat\lib下重启tomcat。
       注:不然会报404页面找不到
   
    7).重启Tomcat,访问 http://localhost:7080/solr 访问成功说明配置正常完成,如图:

        
Solr 4.3.1稳定版 安装部署平台搭建
       注:查看 solr的logging会出现:
    19:44:42 WARN SolrResourceLoader Can't find (or read) directory to add to classloader: ../../../contrib/extraction/lib (resolved as: F:\winsolr\solr_home\solr\collection1\..\..\..\contrib\extraction\lib).
    这样的警告;其实这是因为找不到 对应的jar包造成的。完成接下来的配置这个警告就会消失。

        方式二:基于当前路径的方式


            这种情况需要在F:\winsolr\solr_home\目录下去启动tomcat,Solr查找./solr,因此在启动时候需要切换到F:\winsolr\solr_home\


        方式三:基于环境变量的方式

        windows在环境变量中建立solr.home,值为F:\winsolr\solr_home\
        linux在当前用户的环境变量中(.bash_profile)或在catalina.sh中添加如下环境变量export JAVA_OPTS="$JAVA_OPTS -Dsolr.solr.home=F:\winsolr\solr_home\solr"
       

第二:实现三种中文分词器的安装,包括:smartcn 分词器、IK 分词器、mmseg4j分词器

(smartcn 、mmseg4j建议读者在完成扩展词和拼音分词以后再试,以免中间出错影响扩展词和拼音分词的体验)


A:IK 分词器安装

1.将之前解压的solr-4.3.1 下的contrib和dist 文件夹复制到F:\winsolr\solr_home\solr\collection1下

2.将下载的IKAnalyzer的发行包解压,解压后将IKAnalyzer2012FF_u1.jar(分词器jar包)复制到F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lib下

3.在F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF下新建classes文件夹

4.将IKAnalyzer解压出来的IKAnalyzer.cfg.xml(分词器配置文件)和 Stopword.dic(分词器停词字典,可自定义添加内容)复制到
  F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF\classes中

5.在F:\winsolr\solr_home\solr\collection1\conf下的schema.xml文件中fieldType name="text_general"这个地方的上方添加以下内容

 

<!--配置IK分词器--> 
<fieldType name="text_ik" class="solr.TextField">
     <!--索引时候的分词器--> 
    <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
          <!-- 查询时候的分词器 --> 
    <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
   
</fieldType>

 
并将<field name="text" type="text_general" indexed="true" stored="false" multiValued="true"/>中的type值改为text_ik

6.修改F:\winsolr\solr_home\solr\collection1\conf下的solrconfig.xml文件,指定jar包路径

<lib dir="../../../contrib/extraction/lib" regex=".*\.jar" />
<lib dir="../../../dist/" regex="solr-cell-\d.*\.jar" />

<lib dir="../../../contrib/clustering/lib/" regex=".*\.jar" />
<lib dir="../../../dist/" regex="solr-clustering-\d.*\.jar" />

<lib dir="../../../contrib/langid/lib/" regex=".*\.jar" />
<lib dir="../../../dist/" regex="solr-langid-\d.*\.jar" />

<lib dir="../../../contrib/velocity/lib" regex=".*\.jar" />
<lib dir="../../../dist/" regex="solr-velocity-\d.*\.jar" />

 改为:

<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lib" regex=".*\.jar" />
	
<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\extraction\lib" regex=".*\.jar" />
<lib dir="F:\winsolr\solr_home\solr\collection1\dist\" regex="solr-cell-\d.*\.jar" />

<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\clustering\lib\" regex=".*\.jar" />
<lib dir="F:\winsolr\solr_home\solr\collection1\dist\" regex="solr-clustering-\d.*\.jar" />

<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\langid\lib\" regex=".*\.jar" />
<lib dir="F:\winsolr\solr_home\solr\collection1\dist\" regex="solr-langid-\d.*\.jar" />

<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\velocity\lib" regex=".*\.jar" />
<lib dir="F:\winsolr\solr_home\solr\collection1\dist\" regex="solr-velocity-\d.*\.jar" />

现在来验证下是否添加成功:

首先启动solr服务,启动过程中如果出错,一般有三个原因:

一是配置的分词器jar找不到,也就是你没有复制jar包到\solr\contrib\analysis-extras\lib目前下;
二是solrconfig.xml文件指定的jar路径有误。
三是分词器版本不对导致的分词器接口API不一样出的错,要是这个错的话就在检查分词器的相关文档,看一下支持的版本是否一样.

如果在启动过程中没有报错的话说明配置成功了.
接下来我们重启Tomcat,进入到http://localhost:7080/solr地址进行测试一下刚加入的中文分词器.

在首页的Core Selector中选择你配置的Croe后点击下面的Analysis,
在Field Value (Index)里输入:中国人
在Analyse Fieldname / FieldType:里选择text,然后点击右面Analyse Values

如果分出 中国人 中国  国人这三个词 说明IK 分词器安装成功!如图:


Solr 4.3.1稳定版 安装部署平台搭建
 

B:mmseg4j分词器安装

1.将下载的mmseg4j的发行包解压,将解压出的mmseg4j-analysis-1.9.1.jar  mmseg4j-core-1.9.1.jar   mmseg4j-solr-1.9.1.jar
  这三个jar包复制到F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lib中

2.在F:\winsolr\solr_home\solr\collection1\conf下的schema.xml文件中fieldType name="text_general"这个地方的上方添加以下内容

<!--配置mmseg4j分词器--> 
    <fieldType name="text_msg" class="solr.TextField" positionIncrementGap="100"> 
         <analyzer type="index"> 
         <!--索引时候的分词器--> 
           <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory"/> 
         </analyzer> 
         <analyzer type="query"> 
         <!-- 查询时候的分词器 --> 
           <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory"/> 
         </analyzer> 
       </fieldType>

 如果要引用,同IK配置一样,将field标签中的 type值改为text_msg即可。

3.修改solrconfig.xml文件(和IK配置同样)


现在来验证下是否成功:

重启Tomcat
接下来我们可以进入到http://localhost:7080/solr地址进行测试一下刚加入的中文分词器.

Analyse Fieldname / FieldType:选text,测试内容为:中华人民共和国

如果分出 中华人民共和国 中华人民  中华  华人 人民共和国  人民 共和国 等词 说明mmseg4j分词器安装成功!

C: smartcn 分词器安装(smartcn的分词准确率不错,但就是不能自己定义新的词库)

1.将之前解压的solr-4.3.1下contrib\analysis-extras\lucene-libs中的lucene-analyzers-smartcn-4.3.1.jar包
  复制到F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lib中

2.修改schema.xml文件,在fieldType name="text_general"这个地方的上方添加以下内容

<fieldType name="text_smartcn" class="solr.TextField" positionIncrementGap="0">
      <analyzer type="index">
        <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>
        <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>
</analyzer>
      <analyzer type="query">
         <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>
        <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>
      </analyzer>
</fieldType>

 如果要引用,同IK配置一样,将field标签中的 type值改为text_smartcn即可

3.修改solrconfig.xml文件(和IK配置同样)

好啦!自己测吧,记得重启Tomcat,以及Analyse Fieldname / FieldType:选text

第三:实现中英停词器、sogou词库、扩展词库的安装


1.将从附件中下载的中文停词词库,和sogou词库复制到F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF\classes中

2.新建ext.dic文件,在里面写入: 闵行 陈华芝 这两个词,格式和中文停词词库、sogou词库格式一样。

3.将ext.dic文件用UltraEdit工具打开并另存(不改文件名),另存时将保存类型选为:所有文件(*.*),编码选为:UTF-8 - 无BOM,然后将另存的这个文件复制到
  F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF\classes中

4.修改F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF\classes中的IKAnalyzer.cfg.xml文件
  在entry标签中增加中文停词库 和 sogou词库,以及将entry key="ext_dict"标签的注释去掉 如下所示:

 

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd"> 
<properties> 
    <comment>IK Analyzer 扩展配置</comment>
    <!--用户可以在这里配置自己的扩展字典 -->
    <entry key="ext_dict">ext.dic;</entry>
   
    <!--用户可以在这里配置自己的扩展停止词字典-->
    <entry key="ext_stopwords">stopword.dic;stopword_chinese.dic;words.dic;</entry>
   
</properties>

现在来验证下是否成功:
重启Tomcat,进入到http://localhost:7080/solr地址进行测试(记得Analyse Fieldname / FieldType:选text)

测试内容为:闵行,a陈华芝。是的

如果分出: 闵行  陈华芝 这两个词,说明扩展词库和中英停词器配置成功!你也可以试试sogou词库

(建议试完之后把sogou词库去掉,即把words.dic从IKAnalyzer.cfg.xml文件中去除,不然会影响IK分词的实现)

如图:


Solr 4.3.1稳定版 安装部署平台搭建
 

第四:简单介绍下拼音分词器的安装


1.将附件中的四个jar复制到F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lucene-libs中

2.在F:\winsolr\solr_home\solr\collection1\conf下的solrconfig.xml文件中添加lib指定jar路径:
 
 

<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lucene-libs" regex=".*\.jar" />

 
 
3.在F:\winsolr\solr_home\solr\collection1\conf下的schema.xml文件中fieldType name="text_general"这个地方的上方添加

<!--text_pinyin text_pinyin text_pinyin text_pinyin text_pinyin text_pinyintext_pinyintext_pinyintext_pinyintext_pinyin-->
    
    <fieldType name="text_pinyin" class="solr.TextField" positionIncrementGap="100">
        <analyzer type="index">
           <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>
           <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>
         <filter class="com.shentong.search.analyzers.PinyinTransformTokenFilterFactory" minTermLenght="2" />
           <filter class="com.shentong.search.analyzers.PinyinNGramTokenFilterFactory" minGram="1" maxGram="20" />
        </analyzer>
        <analyzer type="query">
          <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>
          <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>
          <filter class="com.shentong.search.analyzers.PinyinTransformTokenFilterFactory" minTermLenght="2" />
          <filter class="com.shentong.search.analyzers.PinyinNGramTokenFilterFactory" minGram="1" maxGram="20" />
        </analyzer>
    </fieldType>

 

然后添加field

<field name ="pinyin" type ="text_pinyin" indexed ="true" stored ="false" multiValued ="false"/>

 现在来验证下是否成功:
重启Tomcat测试(别忘了Analyse Fieldname / FieldType:里选择pinyin):

测试内容:中国人

如果出现:分出的拼音词 z  zh  zho zhon 等说明配置成功!如图:


Solr 4.3.1稳定版 安装部署平台搭建
 

 转载请注明出处:http://lucien-zzy.iteye.com/admin/blogs/2002087

相关推荐