ElasticSearch(二)安装环境

ElasticSearch安装

1.安装ElasticSearch

​ ES是开箱即用(解压就能使用),它不需要Solr的Zookeeper的运行环境,ES仅支持JSON文件格式。

本地环境

系统:Mac OS ; Java:1.8.3; 本次安装的ES版本为:7.9.3

下载地址:Download Elasticsearch | Elastic 可以在里面选择自己需要的版本,7版本后不支持JDK8

将下载的压缩包进行解压,主要路径中不要有空格,不要有中文。

单击bin下的elasticsearch文件

在这里插入图片描述

启动成功

在这里插入图片描述

默认端口9200 ,启动成功后可以访问此端口

在这里插入图片描述

ES就安装成功了。

2.安装Kibana

Kibana 是为 Elasticsearch设计的开源分析和可视化平台。你可以使用 Kibana 来搜索,查看存储在 Elasticsearch 索引中的数据并与之交互。你可以很容易实现高级的数据分析和可视化,以图表的形式展现出来。

下载的时候要和es版本一致!!!

下载地址:Download Kibana 可以在里面选择自己需要的版本

在这里插入图片描述

同样解压后,进入bin目录下双击 kibana
在这里插入图片描述

启动

在这里插入图片描述

访问 http://localhost:5601/

在这里插入图片描述

:如果出现无法连接9200端口,是因为ES没有允许跨域访问,在ES的文件中访问config文件夹下的elasticsearch.yml

//新增以下跨域参数
http.cors.enabled: true
http.cors.allow-origin: "*"

3.安装elasticsearch-head插件

图形化界面管理ES

安装此插件需要有Node.js环境

1.下载地址:GitHub - mobz/elasticsearch-head: A web front end for an elastic search cluster

  1. 解压对应的压缩包,终端进入head目录执行npm install

  2. 等待完成后,利用命令npm run start 启动页面

    在这里插入图片描述

  3. 启动后,可以在浏览器访问 http://127.0.0.1:9100/

    在这里插入图片描述

4.安装IK分词器

​ ES内部对于英文的分词比较友善,但是对于中文的分词是无能为力的,好在有中文的IK分词器插件可以安装来解决这问题。

​ 下载地址 IK分词器

版本对应表

K version ES version
master 7.x -> master
6.x 6.x
5.x 5.x
1.10.6 2.4.6
1.9.5 2.3.5
1.8.1 2.2.1
1.7.0 2.1.1
1.5.0 2.0.0
1.2.6 1.0.0
1.2.5 0.90.x
1.1.3 0.20.x
1.0.0 0.16.2 -> 0.19.0
  1. 将下载的压缩包拖放进入ES文件路径下的plugins文件夹中解压

  2. 创建一个ik文件夹专门用来存放解压的文件

  3. 删除掉原来的压缩包,重新启动ES(注意路径不能有中文和空格)

    在这里插入图片描述

  4. 测试IK分词器 ,打开kibana的界面,进入左侧的开发工具,测试分词效果

    在这里插入图片描述

    ik_max_word会将文本做最细粒度的拆分;
    ik_smart 会做最粗粒度的拆分;
    
    GET _analyze
    {
          
          
      "analyzer": "ik_max_word",
      "text": "我喜欢吃西瓜"
    }
    
    GET _analyze
    {
          
          
      "analyzer": "ik_smart",
      "text": "我喜欢吃西瓜"
    }
    

至此,ES的相关环境就已经全部搭建好了。

猜你喜欢

转载自blog.csdn.net/qq_27331467/article/details/125775001