EFKチュートリアル - ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

elasticsearch(3ノード)+ filebeat + kibanaクイックスタートEFKを展開することにより、利用可能なデモ環境試験結果を立て

著者:「イギリス製コヨーテ」は、転載することを歓迎し、提出


ディレクトリ

▪使用
▪実験的なアーキテクチャ
▪EFKソフトウェアのインストール
▪elasticsearch設定
▪filebeat設定
▪kibana設定
▪サービス開始
▪kibanaインターフェイスコンフィギュレーション
▪テスト
▪フォローアップ記事


使用

▷filebeatがでクラスタをelasticsearchに転送リアルタイムnginxのアクセスログに収集され
たクラスタをelasticsearchするために収集したログ転送▷filebeat
kibanaショーのログを▷


実験のアーキテクチャ

▷サーバーの構成

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

▷チャート

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。


EFKソフトウェアのインストール

奥付

▷ elasticsearch 7.3.2
▷ filebeat 7.3.2
▷ kibana 7.3.2

注意事項

▷3つのコンポーネントが同じバージョンである必要があり
▷elasticsearchこと三つ以上と単数の総数

インストールパス

▷は/ opt / elasticsearch
▷は/ opt /バックアップビート
▷は/ opt / Kibana

インストールelasticsearch:3つの同一の実装工程ESが実行されます

mkdir -p /opt/software && cd /opt/software
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.3.2-linux-x86_64.tar.gz
tar -zxvf elasticsearch-7.3.2-linux-x86_64.tar.gz
mv elasticsearch-7.3.2 /opt/elasticsearch
useradd elasticsearch -d /opt/elasticsearch -s /sbin/nologin
mkdir -p /opt/logs/elasticsearch
chown elasticsearch.elasticsearch /opt/elasticsearch -R
chown elasticsearch.elasticsearch /opt/logs/elasticsearch -R

# 限制一个进程可以拥有的VMA(虚拟内存区域)的数量要超过262144,不然elasticsearch会报max virtual memory areas vm.max_map_count [65535] is too low, increase to at least [262144]
echo "vm.max_map_count = 655350" >> /etc/sysctl.conf
sysctl -p

filebeatインストール

mkdir -p /opt/software && cd /opt/software
wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.3.2-linux-x86_64.tar.gz
mkdir -p /opt/logs/filebeat/
tar -zxvf filebeat-7.3.2-linux-x86_64.tar.gz
mv filebeat-7.3.2-linux-x86_64 /opt/filebeat

kibana安装

mkdir -p /opt/software && cd /opt/software
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.3.2-linux-x86_64.tar.gz
tar -zxvf kibana-7.3.2-linux-x86_64.tar.gz
mv kibana-7.3.2-linux-x86_64 /opt/kibana
useradd kibana -d /opt/kibana -s /sbin/nologin
chown kibana.kibana /opt/kibana -R

nginxのインストール(ログが収集されるfilebeatを生成するため)

# 只在192.168.1.11安装
yum install -y nginx
/usr/sbin/nginx -c /etc/nginx/nginx.conf

elasticsearch設定

▷192.168.1.31 /opt/elasticsearch/config/elasticsearch.yml

# 集群名字
cluster.name: my-application

# 节点名字
node.name: 192.168.1.31

# 日志位置
path.logs: /opt/logs/elasticsearch

# 本节点访问IP
network.host: 192.168.1.31

# 本节点访问
http.port: 9200

# 节点运输端口
transport.port: 9300

# 集群中其他主机的列表
discovery.seed_hosts: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 首次启动全新的Elasticsearch集群时,在第一次选举中便对其票数进行计数的master节点的集合
cluster.initial_master_nodes: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 启用跨域资源共享
http.cors.enabled: true
http.cors.allow-origin: "*"

# 只要有2台数据或主节点已加入集群,就可以恢复
gateway.recover_after_nodes: 2

▷192.168.1.32 /opt/elasticsearch/config/elasticsearch.yml

# 集群名字
cluster.name: my-application

# 节点名字
node.name: 192.168.1.32

# 日志位置
path.logs: /opt/logs/elasticsearch

# 本节点访问IP
network.host: 192.168.1.32

# 本节点访问
http.port: 9200

# 节点运输端口
transport.port: 9300

# 集群中其他主机的列表
discovery.seed_hosts: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 首次启动全新的Elasticsearch集群时,在第一次选举中便对其票数进行计数的master节点的集合
cluster.initial_master_nodes: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 启用跨域资源共享
http.cors.enabled: true
http.cors.allow-origin: "*"

# 只要有2台数据或主节点已加入集群,就可以恢复
gateway.recover_after_nodes: 2

▷192.168.1.33 /opt/elasticsearch/config/elasticsearch.yml

# 集群名字
cluster.name: my-application

# 节点名字
node.name: 192.168.1.33

# 日志位置
path.logs: /opt/logs/elasticsearch

# 本节点访问IP
network.host: 192.168.1.33

# 本节点访问
http.port: 9200

# 节点运输端口
transport.port: 9300

# 集群中其他主机的列表
discovery.seed_hosts: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 首次启动全新的Elasticsearch集群时,在第一次选举中便对其票数进行计数的master节点的集合
cluster.initial_master_nodes: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 启用跨域资源共享
http.cors.enabled: true
http.cors.allow-origin: "*"

# 只要有2台数据或主节点已加入集群,就可以恢复
gateway.recover_after_nodes: 2

filebeat設定

192.168.1.11 /opt/filebeat/filebeat.yml

# 文件输入
filebeat.inputs:
  # 文件输入类型
  - type: log
    # 开启加载
    enabled: true
    # 文件位置
    paths:
      - /var/log/nginx/access.log
    # 自定义参数
    fields:
      type: nginx_access  # 类型是nginx_access,和上面fields.type是一致的

# 输出至elasticsearch
output.elasticsearch:
  # elasticsearch集群
  hosts: ["http://192.168.1.31:9200",
          "http://192.168.1.32:9200",
          "http://192.168.1.33:9200"]

  # 索引配置
  indices:
    # 索引名
    - index: "nginx_access_%{+yyy.MM}"
      # 当类型是nginx_access时使用此索引
      when.equals:
        fields.type: "nginx_access"

# 关闭自带模板
setup.template.enabled: false

# 开启日志记录
logging.to_files: true
# 日志等级
logging.level: info
# 日志文件
logging.files:
  # 日志位置
  path: /opt/logs/filebeat/
  # 日志名字
  name: filebeat
  # 日志轮转期限,必须要2~1024
  keepfiles: 7
  # 日志轮转权限
  permissions: 0600

kibana配置

192.168.1.21 /opt/kibana/config/kibana.yml

# 本节点访问端口
server.port: 5601

# 本节点IP
server.host: "192.168.1.21"

# 本节点名字
server.name: "192.168.1.21"

# elasticsearch集群IP
elasticsearch.hosts: ["http://192.168.1.31:9200",
                      "http://192.168.1.32:9200",
                      "http://192.168.1.33:9200"]

サービスを開始

# elasticsearch启动(3台es均启动)
sudo -u elasticsearch /opt/elasticsearch/bin/elasticsearch

# filebeat启动
/opt/filebeat/filebeat -e -c /opt/filebeat/filebeat.yml -d "publish"

# kibana启动
sudo -u kibana /opt/kibana/bin/kibana -c /opt/kibana/config/kibana.yml

上記の方法は、フォアグラウンドで実行を開始することです。systemdに設定、その後の記事の「EFKチュートリアル」シリーズを提供しますので、お楽しみに!


kibanaインターフェイスの設定

1️⃣ブラウザ192.168.1.21:5601を使用してアクセスし、次のインターフェイスが正常に開始を表す参照

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

2️⃣点「私たちのサンプルデータを試してみてください」

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

3️⃣「私たちは、基本的な機能の使用状況の統計情報を提供することにより、弾性スタックの改善にご協力ください。私たちは、弾性の外に、このデータを共有することはありません」「いいえ」の点

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

4️⃣点は、「データの追加」「kibanaにデータを追加します」

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

5️⃣ビューを入力してください

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。


テスト

アクセスnginxのは、ログを生成します

curl -I "http://192.168.1.11"

kibana上のデータを表示

1️⃣インデックステンプレートを作成します

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

2️⃣テンプレートを作成するインデックスの名前を入力します。

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

3️⃣データを表示する前にCURL

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。

EFKチュートリアル -  ES EFKに基づいて、マルチノード・デプロイメント構成をインストールします。


以降の記事

これは、最初の「EFKガイド」シリーズで、EFKフォローアップ記事が徐々に放出され、役割の分離、パフォーマンスの最適化、および他の多くの乾燥品が含まれているのでお楽しみに!

おすすめ

転載: blog.51cto.com/cyent/2445813