solr搜索引擎配置中文分词器IK-Analyzer

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/weixin_38111957/article/details/82749515

一、引言

“要得到你就必须要付出,要付出你还要学会坚持,如果你真的觉得很难,那你就放弃,但是放弃了就不要抱怨,我觉得人生就是在这样的,世界是公平的,每个人都是通过自己的努力,去决定自己生活的样子”

 ----何炅老师

前一段时间几次在朋友圈,贴吧,甚至抖音都有看到何炅老师的这段话。确实,想要得到你就必须要付出。我希望所有努力的小伙伴们,都能实现自己所定下的目标。 今天咱们继续来学习solr搜索引擎,既然搜索引擎是根据用户所输入的关键字,来查询商品,那么这个搜索引擎就需要把用户所提供的关键字进行拆分,这样才能更好的、更精确的来查询所对应的商品。所以今天咱们给solr配置IK-Analyzer中文分词器

二、准备工作

在slor中,默认是没有中文分词器的,需要手动配置,先下载IK分词器的包,并上传到linux系统。

下载地址

三、具体实现

步骤一:上传IK分词器到linux系统,文件如下

步骤二:将IK分词器中的jar包(IKAnalyzer2012FF_u1.jar),添加到部署在tomcat的solr工程中

步骤三:把IK分词器所需要的扩展词典、停用词词典以及所需要的配置文件,复制到solr工程下的classpath文件夹

步骤四:配置fieIdtype,需要在/usr/local/solr/solrhome/collection1/conf/schema.xml中配置,也就是在我们之前创建的solrhome目录下。

步骤五完成以上配置,则表示IK中文分词器以及配置好了,咱们重新启动solr项目看看。能找到text_ik这表示配置成功咯

步骤六:最后效果

猜你喜欢

转载自blog.csdn.net/weixin_38111957/article/details/82749515