ドッカーコンテナの展開ELKログ解析システムに基づきます

ヘラジカのコンテナの実行が、それは正しく機能しません時に仮想マシンが展開をテストするために使用されている場合ELKは、分析システムの展開、コンピュータハードウェアのより多くの消費を記録し、そうでない場合は、より多くのハードウェアリソースを割り当てることをお勧めします。ホスト5Gメモリ、4つのCPUをドッキングウィンドウに私を割り当てます。

まず、環境を準備

:私はここにドッキングウィンドウのホストを使用しています(たとえば、ドッカサービスを展開する必要があるとして、あなたはボーエン参照することができドッカー詳細なインストール構成は、その上ヘラジカコンテナを実行し、そのIPアドレスが192.168.20.6です)。

第二に、ホストは、ヘラジカ、コンテナのドッキングウィンドウを実行するように構成されました

[root@docker01 ~]# echo "vm.max_map_count = 655360" >> /etc/sysctl.conf     
#更改其虚拟内存
[root@docker01 ~]# sysctl -p     #刷新内核参数
vm.max_map_count = 655360        #若容器不能正常运行,可适当调大此参数值
[root@docker01 ~]# docker pull sebp/elk            #elk镜像大小在2G以上,所以建议先下载到本地,再运行容器
[root@docker01 ~]# docker run -itd -p 5601:5601 -p 9200:9200 -p 5044:5044 -e ES_HEAP_SIZE="3g" -e LS_HEAP_SIZE="1g" --name elk sebp/elk
#基于sebp/elk运行elk容器
# “-e ES_HEAP_SIZE="3g" ”:是限制elasticsearch所使用的内存大小
# -e LS_HEAP_SIZE="1g" :限制logstash使用的内存大小

この時点で、次のようブラウザインタフェースポートアクセスを通じてドッキングウィンドウのホスト5601にアクセスすることができます(業務上のすべてが行われ、プラグを行うことができ、地図上にマークされています):
ドッカーコンテナの展開ELKログ解析システムに基づきます

ドッカーコンテナの展開ELKログ解析システムに基づきます
ドッカーコンテナの展開ELKログ解析システムに基づきます

ドッカーコンテナの展開ELKログ解析システムに基づきます

あなたは以下のページを見たとき、私たちドッキングウィンドウのホスト上で実行するには、次のコマンド・プロンプトに応じて、(タブのRPMを選択します)。
ドッカーコンテナの展開ELKログ解析システムに基づきます

上記のヒントページコマンドの実装、次のように:


[root@docker01 ~]# curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.4.0-x86_64.rpm
#下载rpm包
[root@docker01 ~]# rpm -ivh filebeat-7.4.0-x86_64.rpm    #安装下载的rpm包
[root@docker01 ~]# vim /etc/filebeat/filebeat.yml
======== Filebeat inputs ==========
filebeat.inputs:         #修改filebeat.inputs下面的内容
  enabled: true           #改为true,以便启用filebeat
  paths:         #修改path段落,添加要收集的日志路径
    - /var/log/messages         #指定一下系统日志的文件路径
    - /var/lib/docker/containers/*/*.log     #这个路径是所有容器存放的日志路径
========== Kibana =============
host: "192.168.20.6:5601"      #去掉此行注释符号,并填写kibana的监听端口及地址
------------ Elasticsearch output ------------ 
  hosts: ["192.168.20.6:9200"]    #修改为Elasticsearc的监听地址及端口
#修改完上述配置后,保存退出即可
[root@docker01 ~]# filebeat modules enable elasticsearch     #启用elasticsearch模块
[root@docker01 ~]# filebeat setup   #初始化filebeat,等待时间稍长
Index setup finished.
Loading dashboards (Kibana must be running and reachable)
Loaded dashboards
Loaded machine learning job configurations
Loaded Ingest pipelines
#出现上述信息,才是初始化成功
[root@docker01 ~]# service filebeat start     #启动filebeat

直前の操作をした後、あなたは、以下の「Dicover」をクリックすることができ、以下のように、操作のログを表示します:

ドッカーコンテナの展開ELKログ解析システムに基づきます

ドッカーコンテナの展開ELKログ解析システムに基づきます

そこに最後の15分で新しいログであり、時間のドッキングウィンドウのホストが同期しても、ある場合には、閲覧するためのコンテナヘラジカが長く利用できる再起動するには、次のコマンドを検討してください。

[root@docker01 ~]# systemctl daemon-reload       #重新加载配置文件
[root@docker01 ~]# docker restart elk          #重启elk容器

ページのトップに通常のアクセスは、その後、我々は、コンテナを実行すると、以下のように、コンテナに関連kibanaを収集することができれば、ログ情報を参照してください、それは文字ごとに10秒印刷してみましょう、と。

[root@docker01 ~]# docker run busybox sh -c 'while true;do echo "this is a log message from container busybox!";sleep 10;done'
#运行这个容器,每隔十秒输出一段字符

次のように図には、その後、順次、見て:
ドッカーコンテナの展開ELKログ解析システムに基づきます

あなたが対応するログ情報を見ることができる場合は、ヘラジカは、この容器は正常に動作しています。

--------この記事の最後に、これまで、読んでくれてありがとう--------

おすすめ

転載: blog.51cto.com/14154700/2447197