elasticsearch kibana +インストールワード詳細な手順

elasticsearch kibana +インストールワード詳細な手順

まず、環境を準備

システム:Centos7

JDKのインストールパッケージ:jdk-8u191-linux-x64.tar.gz

ESのインストール・elasticsearch-7.2.0-linux-x86_64.tar.gzパッケージ:ダウンロード

Kibanaインストールkibana-7.2.0-linux-x86_64.tar.gzパッケージ:ダウンロード

IKワードインストールパッケージ:elasticsearch-analysis-ik-7.2.0.zipダウンロード

現在行うために、2つのノードのノードの計画を準備、すなわち192.168.56.105192.168.56.106

まず、あなたがする必要があるJAVA環境でインストールが完了し、現在のESバージョンがあり1.9、バージョンJDKが、インストールパッケージにすでに含まれて1.9私たち自身が使用できるように、バージョンを1.8検出し、そして最終的にESインストールするかどうか1.9版本の、自分自身のインストールパッケージを使用してインストールされていない場合内JDK

#分别在两台机器上创建用户和用户组,这里每台机器上创建两个用户,后面涉及到单台机器多节点安装直接使用,如果只是单台机器单节点安装,每台建一个用户就行,主要是起到一个隔离作用,而且ES不能通过root用户启动
$ groupadd elastic
$ useradd -g elastic elastic1
$ useradd -g elastic elastic2
$ passwd elastic1
$ passwd elastic2
#关闭防火墙,禁止开机启动
$ systemctl stop firewalld
$ systemctl disable firewalld

第二に、各マシンは、単一ノードクラスタであります

ときのみを使用し、インストールの現在のタイプを行いelastic1、それを使用する場合、複数のスタンドアロンノードをインストールする必要が背後にあるユーザーelastic2のユーザーを

#我是安装在/opt目录 分别对两台机器做如下操作
root@localhost$ tar -zxvf elasticsearch-7.2.0-linux-x86_64.tar.gz
root@localhost$ mv elasticsearch-7.2.0 elasticsearch-7.2.0-elastic1
#设置目录属于elastic1用户elastic用户组
root@localhost$ chown -R elastic1:elastic  elasticsearch-7.2.0-elastic1

上記の設定内容が完了した後、コンフィギュレーションES、コンフィギュレーションを実行する前に:

192.168.56.105节点作为master

192.168.56.106节点作为slave1

master(105)节点 config/elasticsearch.yml設定ファイル:

#集群名称
cluster.name: es_cluster
#节点角色名称
node.name: master
#当前主机Host
network.host: 192.168.56.105
#http端口
http.port: 9200
#tcp端口
transport.tcp.port: 9300
#是否为master节点
node.master: true
#是否作为数据节点
node.data: true
#这里是跨域相关内容的配置
http.cors.enabled: true
http.cors.allow-origin: "*"
#这里代表的是当前服务器上运行几个节点的ES实例
node.max_local_storage_nodes: 1
#符合master要求的节点,目前就只有一个,ES是自己内部实现了高可用的,所以可以多master
cluster.initial_master_nodes: ["192.168.56.105"]
#日志存储位置(不配置默认在安装包路径)
path.logs: /opt/elastic1/logs
#数据存储位置(不配置默认在安装包路径)
path.data: /opt/elastic1/data

slave1(106)节点 config/elasticsearch.yml設定ファイル:

cluster.name: es_cluster
node.name: slave1
network.host: 192.168.56.106
http.port: 9200
transport.tcp.port: 9300
node.data: true
http.cors.enabled: true
http.cors.allow-origin: "*"
node.max_local_storage_nodes: 1
#这里填写的是master节点的IP和TCP端口,有多少master填多少个,主要是用来做心跳检测和数据交互
discovery.seed_hosts: ["192.168.56.105:9300"]
path.logs: /opt/elastic1/logs
path.data: /opt/elastic1/data

あなたも実際のプロジェクトは、デフォルトでノードのスタックメモリを設定する必要がある場合1G

config/jvm.options

-Xms1g
-Xmx1g

独自のメモリの設定に応じて時間を設定し、好ましくない以上32G、私が実際のプロジェクトで設定した31G複数の単語よりも多くのメモリの問題が存在しますので、メモリリソースの無駄が発生します。

上記のコンテンツが指定したユーザーにカットする必要がESため、起動に際始め、起動テストを完了するように設定することができた後不能使用root启动、及び開始時間はおそらくエラーになることです、次のエラーの解決策は、いくつかのシステム・パラメータを設定する必要があります参照

# 终端启动运行
$ ./bin/elasticsearch
# 后台启动运行
$ ./bin/elasticsearch -d

第三に、各マシンマルチノードクラスタ

各マシンは、上に搭載された2ノードES(ES 2つのインスタンス)コンフィギュレーション・モード、現在計画します

192.168.56.105

  • elastic1:マスター
  • elastic2:スレーブ2

192.168.56.106

  • elastic1:スレーブ1
  • elastic2:スレーブ2

以上の動作、準備及び関連する権利を設定し、関連するパケットは、コンフィギュレーションセットが完了によれば、2台のマシンが現在、4つのノードES(実施例)

関連:

別の直接設定を行う際にslave、ノードcopy変更する設定ファイルの

192.168.56.105-master(elaster1):config/elasticsearch.yml

#只需要修改每台机器上能够部署的节点数就可以,其他的和上面的配置相同
node.max_local_storage_nodes: 2

192.168.56.105-slave2(elaster2):config/elasticsearch.yml

cluster.name: es_cluster
#修改节点名称
node.name: slave2
network.host: 192.168.56.105
#这里需要修改端口,不能和master节点冲突
http.port: 9201
#这里需要修改端口,不能和master节点冲突
transport.tcp.port: 9301
node.data: true
http.cors.enabled: true
http.cors.allow-origin: "*"
#将机器能够部署的节点数进行修改
node.max_local_storage_nodes: 2
#这里填写的是master节点的IP和TCP端口,有多少master填多少个,主要是用来做心跳检测和数据交互
discovery.seed_hosts: ["192.168.56.105:9300"]
path.logs: /opt/elastic2/logs
path.data: /opt/elastic3/data

192.168.56.106-slave1(elaster1):config/elasticsearch.yml

# 根据上面的配置修改机器能够部署的节点数,其他参数不变
node.max_local_storage_nodes: 2

192.168.56.106-slave2(elaster2):config/elasticsearch.yml

cluster.name: es_cluster
#修改节点名称
node.name: slave2
#修改节点ip
network.host: 192.168.56.106
#这里需要修改端口,不能和master节点冲突
http.port: 9201
#这里需要修改端口,不能和master节点冲突
transport.tcp.port: 9301
node.data: true
http.cors.enabled: true
http.cors.allow-origin: "*"
#将机器能够部署的节点数进行修改
node.max_local_storage_nodes: 2
#这里填写的是master节点的IP和TCP端口,有多少master填多少个,主要是用来做心跳检测和数据交互
discovery.seed_hosts: ["192.168.56.105:9300"]
path.logs: /opt/elastic2/logs
path.data: /opt/elastic3/data

構成後のコンテンツが異なるノードが起動する別のユーザーを使用する必要がある場合に開始、各ノードを起動など、すべての起動が完了し、そしてできれば、これは、あまりにも処理時間を停止含む単離手順を、保証するrootアカウントであるjpsコマンド例えば2をチェックします。

105-elastic1$ ./bin/elasticsearch -d
105-elastic2$ ./bin/elasticsearch -d
106-elastic1$ ./bin/elasticsearch -d
106-elastic2$ ./bin/elasticsearch -d
#关闭es,直接kill 进程,当然最好是到指定用户下进行kill这样能够区分,不容易混淆

注:実際には、単一のマシンだけではないライン、他の構成を繰り返し、何の違いを拡張しないために、マシン上の同じノードポートに注意を払うに必要な複数のノードをインストール

四、kibanaのインストールとインストールの単語

安装Kibana

$ tar -zxvf kibana-7.2.0-linux-x86_64.tar.gz

kibanaただ、クライアント、主にその管理および閲覧を容易にするESクラスタの状態を、いくつかのデータ解析の機能を提供し、データのクエリツール、インデックス管理および監視機能は、そう、現在だけでインストールされ、ライン上のマシンに搭載された192.168.56.105マシン、そしてそれはに設定することができmaster、同じノード用户および用户组直接使用することができelastic1

kibana-7.2.0-linux-x86_64/config/kibana.ymlコンフィギュレーション

#当前kibana所提供服务的节点地址
server.host: "192.168.8.108"
#服务名称
server.name: "yourkibana"
#连接的ES集群,连接master就行
elasticsearch.hosts: ["http://192.168.8.108:9200"]
#设置请求超时时间,默认是30000
elasticsearch.requestTimeout: 90000

設定が完了したら、ブート認証が成功しています

#现在终端启动,看看日志有没有报错的,没有的话再后台启动
$ ./bin/kibana
$ nohup ../bin/kibana &

访问Kibana

デフォルトのポートはアクセスされ5601たアドレスが自分を設定するためのアドレスであり、私はここにいるhttp://192.168.56.105:5601

Elasticsearchは、中国語の単語のプラグインをインストールします。

インストールIK中文分词插件、インストールパッケージを抽出するための良い言葉をダウンロードし、その後に入れES/plugin目录就可以了ますが、インストール時に、私が使用したときに始めて、バージョン間の接続を確認するために注意を払う必要があります7.5互換性のインストール時間はありませんが、単語のバージョンをバージョンを、背後ダウンロード7.2のバージョンを

$ yum install -y unzip
$ unzip -d ik elasticsearch-analysis-ik-7.2.0.zip
$ cp -r ik/ elasticsearch-7.2.0-elastic1/plugins/
$ cp -r ik/ elasticsearch-7.2.0-elastic2/plugins/
$ scp -r ik/ 192.168.56.106:/opt/elasticsearch-7.2.0-elastic1/plugins/
$ scp -r ik/ 192.168.56.106:/opt/elasticsearch-7.2.0-elastic2/plugins/
#登录到不同的节点去修改对应的ik文件夹的权限
$ chown -R elastic1:elastic /opt/elasticsearch-7.2.0-elastic1/plugins/

以上の動作が完了した後、クラスタを再起動し、通常の中国語単語かどうかを確認

上記のように、正常にインストールトークナイザを示す、中国語単語を修正することが可能です

第五に、起動エラーの問題と解決策

ERROR: [3] bootstrap checks failed
[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65535]
[2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
[3]: the default discovery settings are unsuitable for production use; at least one of [discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes] must be configured

[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65535]

解决办法:

编辑/etc/security/limits.conf,追加以下内容

* soft nofile 65536
* hard nofile 65536

当前内容设置完成之后需要重新登录才能生效

[2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

解决办法:

编辑文件/etc/sysctl.conf,追加一下内容:

vm.max_map_count=655360

编辑完成之后保存,并执行sysctl -p命令

[3]: the default discovery settings are unsuitable for production use; at least one of [discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes] must be configured

解决办法:

出现上面两个错误说明没有在配置文件中配置好ES,需要配置上面中括号中的参数,具体的配置根据节点角色定,该问题一般不会遇到

[4]: max number of threads [2048] for user [tongtech] is too low, increase to at least [4096]

解决办法:

编辑文件/etc/security/limits.d/20-nproc.conf,修改文件中的数值

*          soft    nproc     65535
root       soft    nproc     unlimited

以上内容修改完成之后启动ES,查看ES是否能够正常启动成功

Likely root cause: java.nio.file.AccessDeniedException: /opt/elasticsearch-7.2.0-elastic1/config/elasticsearch.keystore

出现这个错误说明没有权限,看下confg/elasticsearch.keystore文件是否拥有相关权限,如果么有权限,则进行设置

root@localhost$ chown -R elastic1:elastic elasticsearch.keystore 

おすすめ

転載: www.cnblogs.com/mojita/p/12048295.html