Elasticsearch安装使用IK分词器

solr和elasticsearch都是基于Lucene搜索引擎实现的全文检索工具,因为都是美国人开发的,所以分词习惯和中国的汉字分词差别很大,在国内是用不了其自带的分词器,这里我们推荐使用IK分词器,这个分词器是国人开发的,效果很好。

一、下载IK分词器

PS:IK分词器和ES服务器版本必须保持一致。

官网下载路径:https://github.com/medcl/elasticsearch-analysis-ik/releases

二、下载完成后进行解压

使用winSCP连接虚拟机或者服务器,在elasticsearch文件夹下的plugins文件下新建文件夹“ik”,并把解压的ik分词器文件复制上去,然后重启elasticsearch服务器,出现如下图即加载ik分词器词库完成!
在这里插入图片描述PS:IK分词器效果很好,我们也可以自定义词语,本文不提供了,可以百度教程的。

三、使用postman测试分词效果

原本的效果:
在这里插入图片描述使用ik分词器的效果:
在这里插入图片描述在这里插入图片描述这里要注意啦:“analyzer”:"ik_smart"这个就是表示使用IK分词器!

{
"analyzer":"ik_smart",
"text":"中国人民解放军"
}
发布了21 篇原创文章 · 获赞 10 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/weixin_44167913/article/details/101227561