Solr搜索引擎使用IKAnalyzer中文分词
IKAnalyzer是比较好的分词器,分词效果很好,而且Solr也支持插件式的工具配合使用,但是大部分IKAnalyzer只支持Solr4.x版本,我使用的Solr版本是5.5,不过可以在这里下载(传送门)。下面开始在我们的Solr中加入这个强大的分词器。
IKAnalyzer安装
- 把下载好的IKAnalyzer目录下的文件拷贝到我们之前的Tomcat8\webapps\solr-webapp\WEB-INF\lib目录下。
- 进入到我们的Solr文件夹,进入jobs\conf\managed-schema(Solr配置索引字段的配置文件),增加中文分词配置节点,加入如下配置:
<fieldType name="text_ik" class="solr.TextField"> <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/> <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/> </fieldType>
- 为我们要进行分词的字段添加配置,例如我的是如下配置:
<!--爬虫字段索引配置--> <field name="article_title" type="text_ik" indexed="true" stored="true" multiValued="true" /> <field name="account_name" type="text_ik" indexed="true" stored="true" multiValued="true" /> 注意:type表示字段类型,indexed表示是否进行索引,stored表示是否存储该字段,multiValued表示是否可以进行合并字段。
- 保存配置文件,重启Slor服务即可。
备注:之前你已经对当前文档该字段建立索引,若想要达到分词效果,请先清空索引,重新建立索引即可对该字段进行分词查询。