ElasticSearch 7.3.0安装IK分词器

为什么要在elasticsearch中要使用ik这样的中文分词呢,那是因为es提供的分词是英文分词,对于中文的分词就做的非常不好了,因此我们需要一个中文分词器来用于搜索和使用。就尝试安装下IK分词。

ElasticSearch 7.3.0对应版本的IK分词器插件下载地址

xRelease v7.3.0 · medcl/elasticsearch-analysis-ik · GitHubThe IK Analysis plugin integrates Lucene IK analyzer into elasticsearch, support customized dictionary. - Release v7.3.0 · medcl/elasticsearch-analysis-ikhttps://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.3.0The IK Analysis plugin integrates Lucene IK analyzer into elasticsearch, support customized dictionary. - Release v7.3.0 · medcl/elasticsearch-analysis-ikhttps://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.3.0

下载后解压插件

 安装完插件后,重启ElasticSearch,看到控制台有 loaded plugin [analysis-ik]即安装成功:如下图

 或者访问http://localhost:9200/_cat/plugins 查看ElasticSearch所安装的插件

两种分词模式

ik分词器有两种分词模式:ik_max_word和ik_smart模式。
ik_max_word:会将文本做最细粒度的拆分
ik_smart:会做最粗粒度的拆分

猜你喜欢

转载自blog.csdn.net/qq_41322460/article/details/123792089