ELasticSearch安装使用过程中遇到的坑的解决方案,以及使用Kibana操作ELasticSearch

一、安装elasticsearch和kibana

       安装elasticsearch和kibana,我现在使用的是windows版本的,安装其实也不难,具体的安装教程可以参照这两篇博客,写的安装步骤也很详细。

windows环境下安装elasticsearch

我安装的官网最新版的elasticsearch7.3.2本

安装好的elasticsearch,使用浏览器,访问:http://localhost:9200/

可以看到以下界面,就表示安装成功:

按照教程的推荐,安装elasticsearch-head-master,可视化管理elasticsearch索引以及集群

安装好后,启动服务,访问:http://localhost:9100/

最后安装kibana

安装kibana,推荐参照这篇博客文章,写的也非常详细:

Kibana 的安装(Windows版本)---这篇博客可以跳过前边安装elasticsearch的步骤,直接看kibana安装。

安装好后,启动服务,访问:http://localhost:5601/,出现以下界面就安装并访问成功

以后使用elasticsearch和kibana的时候,启动方式:

使用elasticsearch,需要启动elasticsearch服务,进入elasticsearch的bin目录,双击elasticsearch.bat
访问:http://localhost:9200

查看elasticsearch使用了head插件,可视化查看elasticsearch的情况
启动elasticsearch-head-master
需要进入elasticsearch-head-master,启动cmd窗口,输入命令:npm run start或grunt server
我已经将命令写在了start.bat文件中,以后,只需要双击start.bat文件就可以启动服务了
访问:http://localhost:9100

使用kibana,需要启动kibana服务,进入kibana的bin目录,双击kibana.bat即可
访问:http://localhost:5601

注意:安装的kibana版本需要与elasticsearch的版本一致,我安装的都是7.3.2版本,目前是官网最新版本

第一次访问elasticsearch是正常的,但是当我停掉elasticsearch服务时,第二次启动时,却出错了,根据启动的日志查看到错误:

ERROR: [1] bootstrap checks failed
[1]: the default discovery settings are unsuitable for production use; at least one of [discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes] must be configured

注意:需要看到启动日志,不能双击bat批处理文件这种方式启动elasticsearch服务,因为窗口出现后,等日志输出完毕之后,窗口自动关闭了,是看不到具体日志的,需要到elasticsearch安装目录,启动cmd窗口,然后手动启动服务,手动输入elasticsearch.bat

查看日志,查看错误提示

具体解决方案,可以参照这篇博客,总结了多种异常情况,我刚才提到的异常情况,就是这篇博客总结的最后一种异常情况,按照方法解决就可以了:

elasticsearch安装 及 启动异常解决

所有安装完成之后,就可以开始愉快的使用elasticsearch强大的功能了!

二、elasticsearch的使用

2.1 创建索引库
ES的索引库是一个逻辑概念,它包括了分词列表及文档列表,同一个索引库中存储了相同类型的文档。它就相当于
MySQL中的表,或相当于Mongodb中的集合。
关于索引这个语:
索引(名词):ES是基于Lucene构建的一个搜索服务,它要从索引库搜索符合条件索引数据。
索引(动词):索引库刚创建起来是空的,将数据添加到索引库的过程称为索引。
下边介绍两种创建索引库的方法,它们的工作原理是相同的,都是客户端向ES服务发送命令。
1)使用postman或curl这样的工具创建:

windows版本,我们先使用postman来操作elasticsearch

创建索引库:

格式如下:

put http://localhost:9200/索引库名称

使用put方式请求

创建索引成功,索引库名为:xiaomifeng1010

number_of_shards:设置分片的数量,在集群中通常设置多个分片,表示一个索引库将拆分成多片分别存储不同
的结点,提高了ES的处理能力和高可用性,入门程序使用单机环境,这里设置为1。
number_of_replicas:设置副本的数量,设置副本是为了提高ES的高可靠性,单机环境设置为0.

创建xiaomifeng1010索引库,共1个分片,0个副本:

现在到elasticsearch管理界面看一下(刷新一下页面)

可以看到索引库xiaomifeng1010已经创建成功

还有更简单的方法是在head界面创建索引库,切换到索引---新建索引

效果如下: 

2.2 创建映射

2.2.1 概念说明

在索引中每个文档都包括了一个或多个field,创建映射就是向索引库中创建field的过程,下边是document和field
与关系数据库的概念的类比:
文档(Document)----------------Row记录
字段(Field)-------------------Columns 列
注意:6.0之前的版本有type(类型)概念,type相当于关系数据库的表,ES官方将在ES8.0版本中彻底删除type。
上边讲的创建索引库相当于关系数据库中的数据库还是表?
1、如果相当于数据库就表示一个索引库可以创建很多不同类型的文档,这在ES中也是允许的。
2、如果相当于表就表示一个索引库只能存储相同类型的文档,ES官方建议 在一个索引库中只存储相同类型的文
档。

可以参考官网文档说明:Removal of mapping types

2.2.2 创建映射
我们要把课程信息存储到ES中,这里我们创建xiaomifeng1010索引库的映射,先来一个简单的映射,如下:
发送:post http://localhost:9200/索引库名称/_mapping  (elasticsearch7.3.2弱化了type,所以不能加doc了,加了doc会报错illegal_argument_exception ,6.x版本的需要写成post http://localhost:9200/索引库名称/类型名称/_mapping
创建类型为xiaomifeng1010的映射,共包括三个字段:name、age、email
(由于elasticsearch 6.x版本还没有将type彻底删除,所以暂时把type起一个没有特殊意义的名字。之前创建的xc_course是使用6.2.1版本创建的,所以创建映射需要写成如下:
post 请求:http://localhost:9200/xc_course/doc/_mapping
表示:在xc_course索引库下的doc类型下创建映射。doc是类型名(官方之前类比为关系型数据库中的table),可以自定义,在ES6.0中要弱化类型的概念,
给它起一个没有具体业务意义的名称。)

7.3.2版本,创建映射,仍然可以使用postman

put http://localhost:9200/xiaomifeng1010/_mapping

现在到head界面查看xiaomifeng1010索引信息

查看索引信息,可以看到映射的信息(即索引库的约束,相当于定义关系型数据库数据表字段类型)

 

 2.3 创建文档
ES中的文档相当于MySQL数据库表中的记录。
发送:Post http://localhost:9200/xiaomifeng1010/_doc/
(如果不指定id值ES会自动生成ID)

现在查看head界面:

 

可以看到记录已经插入进去了

2.4 搜索文档 

1、根据xiaomifeng1010索引库中的记录的id查询文档
发送:get http://localhost:9200/xiaomifeng1010/_doc/i-LbhW0B6mPtB13laPzf
 

 使用postman测试:

 2、查询所有记录
发送 get http://localhost:9200/xiaomifeng1010/_doc/_search

为了可以查到多条记录,现在再插入一条记录

然后再执行查询:

took:本次操作花费的时间,单位为毫秒。
timed_out:请求是否超时
_shards:说明本次操作共搜索了哪些分片
hits:搜索命中的记录
hits.total : 符合条件的文档总数 hits.hits :匹配度较高的前N个文档
hits.max_score:文档匹配得分,这里为最高分
_score:每个文档都有一个匹配度得分,按照降序排列。
_source:显示了文档的原始内容。
3、查询名称中包括elite关键字的的记录
发送:get http://localhost:9200/xiaomifeng1010/_doc/_search?q=name:elite


4、查询年龄为10岁的记录
发送 get http://localhost:9200/xiaomifeng1010/_doc/_search?q=age:10

 三、IK分词器

3.1测试elasticsearch默认的分词器
在添加文档时会进行分词,索引中存放的就是一个一个的词(term),当你去搜索时就是拿关键字去匹配词,最终
找到词关联的文档。
测试当前索引库使用的分词器:
post 发送:localhost:9200/_analyze
{"text":"测试分词器,后边是测试内容:spring cloud实战"}
结果如下:


 

 会发现分词的效果将 “测试” 这个词拆分成两个单字“测”和“试”,这是因为当前索引库使用的分词器对中文就是单字
分词。

3.2 安装IK分词器
使用IK分词器可以实现对中文分词的效果。
下载IK分词器:(Github地址:https://github.com/medcl/elasticsearch-analysis-ik)
下载zip:

然后下载最新版7.3.2版本

 下载之后,解压zip文件,然后将解压后的文件放在ES安装目录的plugins下的目录下

然后重启elasticsearch服务,使ik分词器插件加载并生效

测试分词效果:
发送:post localhost:9200/_analyze
{"text":"测试分词器,后边是测试内容:spring cloud实战","analyzer":"ik_max_word" }

 3.3 两种分词模式
ik分词器有两种分词模式:ik_max_word和ik_smart模式。(这两种模式会在下边的kibana中演示,这里就不用postman演示了)
1、ik_max_word
会将文本做最细粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为“中华人民共和国、中华人民、中华、
华人、人民共和国、人民、共和国、大会堂、大会、会堂等词语。
2、ik_smart
会做最粗粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为中华人民共和国、人民大会堂。
测试两种分词模式:

发送:post localhost:9200/_analyze
{"text":"中华人民共和国人民大会堂","analyzer":"ik_smart" }

3.4 自定义词库
如果要让分词器支持一些专有词语,可以自定义词库。
iK分词器自带一个main.dic的文件,此文件为词库文件

用notepad++打开main.dic

 

看到里边有很多中文词汇 

当然我们自己可以在上边的目录中新建一个my.dic文件(注意文件格式为utf-8(不要选择utf-8 BOM))
可以在其中自定义词汇:
然后在配置文件IKAnalyzer.cfg.xml中配置my.dic的相关信息

 重启ES,测试分词效果:
发送:post localhost:9200/_analyze
{"text":"测试分词器,后边是测试内容:spring cloud实战","analyzer":"ik_max_word" }

四、使用kibana可视化界面来操作elasticsearch

kibana界面有个扳手的图标(开发工具),点击进入console控制台,通过命令(官方称为api)操作elasticsearch

按照官方的例子来创建索引,并同时指定确切的映射

下边在kibana中操作

 这样也顺利创建了索引和映射

接下来添加field

在kibana中操作:

 

执行成功

接下来查看一下索引库和映射

 

当然如果查看head界面,一定增加了一个新的索引库my-index

 

下边使用kibana演示一下上边用postman演示的常用elasticsearch操作:

使用elasticsearch默认分词器

 使用ik中文分词器,模式:ik_max_word

使用ik中文分词器,模式:ik_smart

 最后对比一下“中华人民共和国人民大会堂”,在ik分词器的ik_max_word模式的效果

这一篇就先到这里,下一篇会总结一下使用java客户端来操作elasticsearch。

发布了74 篇原创文章 · 获赞 20 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/u011174699/article/details/101829585