Solr实战(二)---使用IKAnalyzer中文分词

Solr搜索引擎使用IKAnalyzer中文分词

IKAnalyzer是比较好的分词器,分词效果很好,而且Solr也支持插件式的工具配合使用,但是大部分IKAnalyzer只支持Solr4.x版本,我使用的Solr版本是5.5,不过可以在这里下载(传送门)。下面开始在我们的Solr中加入这个强大的分词器。

IKAnalyzer安装

  1. 把下载好的IKAnalyzer目录下的文件拷贝到我们之前的Tomcat8\webapps\solr-webapp\WEB-INF\lib目录下。
  2. 进入到我们的Solr文件夹,进入jobs\conf\managed-schema(Solr配置索引字段的配置文件),增加中文分词配置节点,加入如下配置:
    <fieldType name="text_ik" class="solr.TextField">   
         <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>   
         <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>        
    </fieldType>
    
  3. 为我们要进行分词的字段添加配置,例如我的是如下配置:
    <!--爬虫字段索引配置-->
    <field name="article_title" type="text_ik" indexed="true" stored="true" multiValued="true" />
    <field name="account_name" type="text_ik" indexed="true" stored="true" multiValued="true" />
    注意:type表示字段类型,indexed表示是否进行索引,stored表示是否存储该字段,multiValued表示是否可以进行合并字段。
    
  4. 保存配置文件,重启Slor服务即可。

备注:之前你已经对当前文档该字段建立索引,若想要达到分词效果,请先清空索引,重新建立索引即可对该字段进行分词查询。