ELKはどのようにリアルタイムログ解析プラットフォームを構築する方法を教えて

この記事では、その後、ELKは最終的にそれが何であるか、どのようにリアルタイムログ解析ELKプラットフォームを構築する方法を主に教えられていますか?

ELKは、3つのオープンソースプロジェクトの略語の最初の文字で、3つのプロジェクトがあります:Elasticsearch、LogstashとKibana。

  • Elasticsearchは、検索および分析エンジン
  • Logstash パイプラインを処理するサーバ側データ等のようなElasticsearchとして、リポジトリにデータを送信し、その後、データを同時に複数のソースから取得することができ、データ変換、および。
  • Kibanaは、ユーザーがElasticsearchことができ、グラフィックスとビジュアルデータチャートの利用を

ELKスタック

コアElasticsearchは、検索エンジンで、ユーザーは、ユースケースをログに記録するためにそれを使用し始めた、と希望を簡単に収集・可視化を記録できるようにします。そこで、弾性は、強力で柔軟な回収パイプLogstash可視化ツールKibanaを紹介します。

次のようにELKログシステムのデータフロー図です。

ELKログシステムのデータフロー図

ELKを理解する簡単な後、私たちは一緒に最初Elasticsearchをインストールし、ハンズELKリアルタイムログ解析プラットフォームを構築しましょう何、です。

注:ELKビルドバージョンへの環境が重要である、提案された統一バージョンと回避ミスを開始する場所がない私はここで選択したが、バージョン7.1.0です。

はじめとElasticSearch

ElasticSearchの導入と、既に言及した記事に取り付けるには、ここでは繰り返さないだろう、とあなたは、ビューに下記のリンクをクリックすることができます:

フルテキスト検索エンジンElasticsearchエントリ:クラスタのセットアップ

Kibanaを理解し、インストールするには:あなたが既に知っているとElasticsearchをインストールした場合は、次の手順に行進私に従ってください。

はじめとKibana

この部分は、ダウンロードしてインストールKibanaを、そしてKibanaプラグインをインストールする方法、およびそれがKibanaインタフェースのための簡単な紹介となります方法について説明します。

首先让我们来看下 Kibana 究竟是何物?

什么是 Kibana?

Kibana 是为 Elasticsearch 设计的开源分析和可视化平台,你可以使用 Kibana 来搜索,查看存储在 Elasticsearch 索引中的数据并与之交互,你可以很容易实现高级的数据分析和可视化,以图标的形式展现出来。

在简单了解了 Kibana 后,让我们来到 Kibana 的下载网站 https://www.elastic.co/cn/downloads/kibana ,目前使用的是 Windows 系统,因此下载 Windows 版本的 Kibana 下载包 kibana-7.1.0-windows-x86_64.zip

运行 Kibana

下载完成后在本地解压,如果需要对 Kibana 做一些定制,可以在 config 目录下 编辑 kibana.yml 文件,在运行 Kibana 之前需要先运行 ElasticSearch(以下简称 ES),因为 Kibana 是基于 ES 运行的,现在进入 bin 目录下打开 kibana.bat 就可以运行 Kibana 了,我们现在打开浏览器,Kibana 是运行在 5601 端口上的,因此打开 http://localhost:5601,打开后会出现如下页面:

导入样例数据,查看 Dashboard

进入首页后会提示我们可以添加一些测试数据,ES 在 Kibana 开箱即用的版本中,已经为我们准备了三种样例数据,电商网站的订单,航空公司的飞行记录以及 WEB 网站的日志,我们可以点击 Add data,把他们添加进来,添加完成后,我们可以打开 Dashboards 界面,就可以看到系统已经为我们创建了数据的 Dashboard。

ダッシュボード

第一个是电商的利润报表,我们可以打开来看一下:

在 Dashboard 中,我们可以将多套可视结果整合至单一页面内,而后提供搜索查询或者点击可视结果内的某元素指定过滤条件,从而实现结果过滤,Dashboard 能够帮助我们更全面地了解总体日志内容,并将各可视结果同日志关联起来,以上就是 Kibana 的 Dashboard 功能。

Dev Tools

接下来介绍 Kibana 里面非常有用的工具 Dev Tools,其实就是可以很方便地在 Kibana 中执行 ES 中的一些 API,比如我们上文讲到的检测有哪些节点在运行: GET /_cat/nodes?v,这样我们就能在 Kibana 中运行 ES 命令了。

另外,Kibana 的 Dev Tools 还有许多的快捷菜单操作,比如 Ctrl + / 可以查看 API 帮助文档,其他的大家可以去自行摸索。

安装与查看插件

Kibana 可以通过插件的方式来提供一些 Kibana 中的特定应用或者增强图表展示的功能,Kibana 安装插件和 ES 非常相似。

输入 kibana-plugin install kibana-plugin install https://github.com/sivasamyk/logtrail/releases/download/v0.1.31/logtrail-7.1.0-0.1.31.zip 就可以下载 LogTrail 插件了。

在 cmd 中输入 kibana-plugin list 可以查看本机已安装的 Kibana 插件。

如果想移除插件可以使用 kibana-plugin remove logtrail 命令来进行移除插件。

到此为止,我们就下载并安装完成 Kibana,并对 Kibana 主要功能进行简单介绍,还介绍了 Dev Tools,大家可以自己在本地进行实践操作下。

目前就差 ELK 三兄弟的最后一个:Logstash,让我们一起学习下。

Logstash 介绍与安装

这部分主要是下载并安装 Logstash,并通过 Logstash 将测试数据集导入到 ES 中。

话不多说,首先让我们来了解下 Logstash 是个啥?

什么是 Logstash?

Logstash 是开源的服务器端数据处理管道,能够同时从多个来源采集数据,转换数据,然后将数据发送到您最喜欢的存储库中。

Logstash 能够动态地采集、转换和传输数据,不受格式或复杂度的影响。利用 Grok 从非结构化数据中派生出结构,从 IP 地址解码出地理坐标,匿名化或排除敏感字段,并简化整体处理过程。

数据往往以各种各样的形式,或分散或集中地存在于很多系统中。Logstash 支持各种输入选择 ,可以在同一时间从众多常用来源捕捉事件,能够以连续的流式传输方式,轻松地从您的日志、指标、Web 应用、数据存储以及各种 AWS 服务采集数据。

再了解过后,让我们去下载安装 Logstash。

安装 Logstash

还是来到 Logstash 的官网,进入到下载页面 https://www.elastic.co/cn/downloads/logstash,下载的时候注意要和 ES 和 Kibana 的版本相同,这里下载的为 7.1.0 版本 logstash-7.1.0.zip

下载后进行解压,也可以进入 conf 目录下修改 logstash.conf 进行配置,运行的时候可以通过指定配置文件 logstash -f logstash.conf 就可以执行数据的插入和转换的工作。

再安装完成之后,让我们来使用 Logstash 往 ES 中导入数据。

用 Logstash 导入 ES

下面我们来导入测试数据集,首先修改 logstash.conf 文件,内容为:

input {
  file {
    path => ["D:/SoftWare/logstash-7.1.0/csv/movies.csv"]
    start_position => "beginning"
    sincedb_path => "D:/SoftWare/logstash-7.1.0/csv/null"
  }
}
filter {
  csv {
    separator => ","
    columns => ["id","content","genre"]
  }

  mutate {
    split => { "genre" => "|" }
    remove_field => ["path", "host","@timestamp","message"]
  }

  mutate {

    split => ["content", "("]
    add_field => { "title" => "%{[content][0]}"}
    add_field => { "year" => "%{[content][1]}"}
  }

  mutate {
    convert => {
      "year" => "integer"
    }
    strip => ["title"]
    remove_field => ["path", "host","@timestamp","message","content"]
  }

}
output {
   elasticsearch {
     hosts => "http://localhost:9200"
     index => "movies"
     document_id => "%{id}"
   }
  stdout {}
}

测试数据集来自 Movielens :https://grouplens.org/datasets/movielens/,大家可以前往下载。配置文件中的 path 根据自己下载的测试文件路径去修改。另外,配置文件的逻辑将在以后的文章中进行讲解。

今のコマンドを実行するにはlogstash -f logstash.conf、データのESをインポートします。あなたがコンソールに印刷されたデータを参照すると、データがESに書き込まれています。

これまでのところ、我々は完全に構築するために、当社のリアルタイムログ解析プラットフォームながら、ELKを成功裏Logstashをインストールしている、とLogstash書き込みESによるテストデータセット。

サプリメント

LogstashによってテストデータセットをESを書き込んだ後、ジュニアパートナーは、映画インデックスのステータスが黄色で見つける心配しないだろう、黄色の代表者は、フラグメントのコピーが割り当てられていません。

このマシンのみノードの開始、およびインデックス映画はマスタースライスのスライスのコピーを提供するので、プライマリおよびセカンダリスライスが一つのノードに割り当てられていません。

ソリューション:0にインデックスの設定、レプリカセットのコピーを変更、またはクラスタノードを追加するには、ステータスが緑に変わります。

概要

本論文では、構築プロセス中に何らかの問題、歓迎のメッセージ交換や議論がある場合は、プラットフォームELKログ解析を構築するためにみんなと一緒に練習する何ELK、学びました。

ELKインストールパッケージやテストデータのダウンロード速度のセットが遅い場合は、[パブリック]いいえ応答でWupei玄できるヘラジカの情報を取得することができます。

リファレンス

https://www.elastic.co/guide/en/kibana/7.1/index.html

https://www.elastic.co/guide/en/logstash/7.1/index.html

Elasticsearchコア技術と戦闘

おすすめ

転載: www.cnblogs.com/wupeixuan/p/12370159.html