ELK ваша проблема головной боли, почти решена

Возможно, через несколько недель тестирования, шаг на многочисленных ямах, чтобы подвести итог, все сухие товары, поделиться ~

A, ELK практическое знание резюме

1, Проблемы преобразования кодирования

Проблема, в основном китайские искаженно.

Входной кодек => простая перекодировка:

Кодек => равнина {

кодировка => "GB2312"

}

Кодировка текста GB2312, преобразуется в UTF-8 кодировку.

Кодирование преобразование может быть также достигнуто в filebeat (рекомендуется):

filebeat.prospectors:

- input_type: журнал

пути:

- с: UsersAdministratorDesktopperformanceTrace.txt

Кодирование: GB2312

2, удалить дополнительные строки избыточного журнал

logstash фильтр капли удалены:

если ([сообщение] = ~ "^ 20 *. - запрос задачи, * время начала * ..") {# п с резервированием строк должны быть удалены

падение {}

}

Войти пример:

2018-03-20 10: 44: 01523 [33] ОТЛАДКА отладки - запрос задачи, задачи Id: 1cbb72f1-a5ea-4e73-957c-6d20e9e12a7a, время начала: 2018-03-20 10:43:59 # строка будет удалена

- Запрос строки:

{ "UserName": "15046699923", "Pwd": "ZYjyh727", "DeviceType": 2, "DeviceId": "PC-20170525SADY", "EquipmentNo": "SSID": "компьютер", "RegisterPhones": "AppKey": "ab09d78e3b2c40b789ddfc81674bc24deac", "Версия": "2.0.5.3"} - End

- Строка ответа:

{ "ErrorCode": 0, "Успех": правда, "ErrorMsg": "Результат": "WaitInterval": 30} - Конец

3, Grok обрабатывать много другой строки журнала

Войти пример:

2018-03-20 10: 44: 01523 [33] ОТЛАДКА отладки - запрос задачи, задачи Id: 1cbb72f1-a5ea-4e73-957c-6d20e9e12a7a, время начала: 2018-03-20 10:43:59

- Запрос строки:

{ "UserName": "15046699923", "Pwd": "ZYjyh727", "DeviceType": 2, "DeviceId": "PC-20170525SADY", "EquipmentNo": "SSID": "компьютер", "RegisterPhones": "AppKey": "ab09d78e3b2c40b789ddfc81674bc24deac", "Версия": "2.0.5.3"} - End

- Строка ответа:

{ "ErrorCode": 0, "Успех": правда, "ErrorMsg": "Результат": "WaitInterval": 30} - Конец

В фильтре линии Grok logstash обрабатывали 3:

матч => {

"Сообщение" => ". ^ 20 * - запрос задачи, *, время начала:% {TIMESTAMP_ISO8601: RequestTime}"

матч => {

"message" => "^-- Request String : {"UserName":"%{NUMBER:UserName:int}","Pwd":"(?<Pwd>.*)","DeviceType":%{NUMBER:DeviceType:int},"DeviceId":"(?<DeviceId>.*)","EquipmentNo":(?<EquipmentNo>.*),"SSID":(?<SSID>.*),"RegisterPhones":(?<RegisterPhones>.*),"AppKey":"(?<AppKey>.*)","Version":"(?<Version>.*)"} -- End.*"

}

match => {

"message" => "^-- Response String : {"ErrorCode":%{NUMBER:ErrorCode:int},"Success":(?<Success>[a-z]*),"ErrorMsg":(?<ErrorMsg>.*),"Result":(?<Result>.*),"WaitInterval":%{NUMBER:WaitInterval:int}} -- End.*"

}

... 等多行

4、日志多行合并处理—multiline插件(重点)

Пример:

① Вход

2018-03-20 10: 44: 01523 [33] ОТЛАДКА отладки - запрос задачи, задачи Id: 1cbb72f1-a5ea-4e73-957c-6d20e9e12a7a, время начала: 2018-03-20 10:43:59

- Запрос строки:

{ "UserName": "15046699923", "Pwd": "ZYjyh727", "DeviceType": 2, "DeviceId": "PC-20170525SADY", "EquipmentNo": "SSID": "компьютер", "RegisterPhones": "AppKey": "ab09d78e3b2c40b789ddfc81674bc24deac", "Версия": "2.0.5.3"} - End

- Строка ответа:

{ "ErrorCode": 0, "Успех": правда, "ErrorMsg": "Результат": "WaitInterval": 30} - Конец

②logstash лечение Grok нескольких линий после слияния. Объединенные множественные линии следуют тем же, следующим образом:

фильтр {

Grok {

матч => {

"message" => "^%{TIMESTAMP_ISO8601:InsertTime} .*- task request,.*,start time:%{TIMESTAMP_ISO8601:RequestTime} -- Request String : {"UserName":"%{NUMBER:UserName:int}","Pwd":"(?<Pwd>.*)","DeviceType":%{NUMBER:DeviceType:int},"DeviceId":"(?<DeviceId>.*)","EquipmentNo":(?<EquipmentNo>.*),"SSID":(?<SSID>.*),"RegisterPhones":(?<RegisterPhones>.*),"AppKey":"(?<AppKey>.*)","Version":"(?<Version>.*)"} -- End -- Response String : {"ErrorCode":%{NUMBER:ErrorCode:int},"Success":(?<Success>[a-z]*),"ErrorMsg":(?<ErrorMsg>.*),"Result":(?<Result>.*),"WaitInterval":%{NUMBER:WaitInterval:int}} -- End"

}

}

}

在filebeat中使用multiline插件(推荐):

①介绍multiline

  • pattern:正则匹配从哪行合并;

  • negate:true/false,匹配到pattern 部分开始合并,还是不配到的合并。

match:after/before(需自己理解)

  • after:匹配到pattern 部分后合并,注意:这种情况最后一行日志不会被匹配处理;

  • before:匹配到pattern 部分前合并(推荐)。

②5.5版本之后(before为例)

filebeat.prospectors:

- input_type: log

paths:

- /root/performanceTrace*

fields:

type: zidonghualog

multiline.pattern: '.*"WaitInterval":.*-- End'

multiline.negate: true

multiline.match: before

③5.5版本之前(after为例)

filebeat.prospectors:

- input_type: log

paths:

- /root/performanceTrace*

input_type: log

multiline:

pattern: '^20.*'

negate: true

match: after

在logstash input中使用multiline插件(没有filebeat时推荐):

①介绍multiline

  • pattern:正则匹配从哪行合并;

  • negate:true/false,匹配到pattern 部分开始合并,还是不配到的合并。

what:previous/next(需自己理解)

  • previous:相当于filebeat 的after;

  • next:相当于filebeat 的before。

②用法

input {

file {

path => ["/root/logs/log2"]

start_position => "beginning"

codec => multiline {

pattern => "^20.*"

negate => true

what => "previous"

}

}

}

Используйте многострочный плагин в logstash фильтр (не рекомендуется):

Не рекомендуется причины:

  • После того, как фильтр обеспечивается многострочный, pipline работник будет автоматически уменьшено до 1;

  • По официальной версии 5.5 в дополнение к многострочный, вы хотите использовать, то вам необходимо скачать, команда загрузки выглядит следующим образом:

/ USR / доли / logstash / bin / logstash-плагин установить logstash-фильтр-многострочный

Пример:

фильтр {

многострочный {

шаблон => "^ 20. *"

свести на нет => правда

то, что => «предыдущий»

}

}

5, logstash дата фильтра, используемая в

Войти пример:

2018-03-20 10:44:01 [33] ОТЛАДКА отладки - запрос задачи, задачи Id: 1cbb72f1-a5ea-4e73-957c-6d20e9e12a7a, время начала: 2018-03-20 10:43:59

Использовать дату:

Дата {

матч => [ "InsertTime", "YYYY-MM-дд чч: мм: сс"]

remove_field => "InsertTime"

}

注: матч => [ "временная метка", "дд / МММ / ГГГГ час: мин: сек Z"]

Сопоставление это поле, Формат полей: / Месяц месяц / год день / минута / секунда часового пояса, также может быть записана в виде: матч => [ «временная метка», «ISO8601»] (рекомендуется)

Дата:

Ключ должны соответствовать журналу вовремя заменить @timestamp времени, потому что время @timestamp войти в logstash времени, не войти реальное время.

6, журнал обработка классификации мульти-класса (фокус)

在filebeat的配置中添加type分类:

filebeat:

prospectors:

-

paths:

#- /mnt/data/WebApiDebugLog.txt*

- /mnt/data_total/WebApiDebugLog.txt*

fields:

type: WebApiDebugLog_total

-

paths:

- /mnt/data_request/WebApiDebugLog.txt*

#- /mnt/data/WebApiDebugLog.txt*

fields:

type: WebApiDebugLog_request

-

paths:

- /mnt/data_report/WebApiDebugLog.txt*

#- /mnt/data/WebApiDebugLog.txt*

fields:

type: WebApiDebugLog_report

在logstash filter中使用if,可进行对不同类进行不同处理:

filter {

if [fields][type] == "WebApiDebugLog_request" { #对request 类日志

if ([message] =~ "^20.*- task report,.*,start time.*") { #删除report 行

drop {}

}

grok {

match => {"... ..."}

}

}

在logstash output中使用if:

if [fields][type] == "WebApiDebugLog_total" {

elasticsearch {

hosts => ["6.6.6.6:9200"]

index => "logstashl-WebApiDebugLog_total-%{+YYYY.MM.dd}"

document_type => "WebApiDebugLog_total_logs"

}

二、对ELK整体性能的优化

1、性能分析

服务器硬件Linux:1cpu4GRAM

假设每条日志250Byte。

分析:

①logstash-Linux:1cpu 4GRAM

  • 每秒500条日志;

  • 去掉ruby每秒660条日志;

  • 去掉grok后每秒1000条数据。

②filebeat-Linux:1cpu 4GRAM

  • 每秒2500-3500条数据;

  • 每天每台机器可处理:24h*60min*60sec* 3000*250Byte=64,800,000,000Bytes,约64G。

瓶颈在logstash从Redis中取数据存入ES,开启一个logstash,每秒约处理6000条数据;开启两个logstash,每秒约处理10000条数据(cpu已基本跑满);

logstash的启动过程占用大量系统资源,因为脚本中要检查java、ruby以及其他环境变量,启动后资源占用会恢复到正常状态。

2、关于收集日志的选择:logstash/filter

没有原则要求使用filebeat或logstash,两者作为shipper的功能是一样的。

区别在于:

  • logstash由于集成了众多插件,如grok、ruby,所以相比beat是重量级的;

  • logstash启动后占用资源更多,如果硬件资源足够则无需考虑二者差异;

  • logstash基于JVM,支持跨平台;而beat使用golang编写,AIX不支持;

  • AIX 64bit平台上需要安装jdk(jre) 1.7 32bit,64bit的不支持;

  • filebeat可以直接输入到ES,但是系统中存在logstash直接输入到ES的情况,这将造成不同的索引类型造成检索复杂,最好统一输入到els 的源。

总结:

logstash/filter总之各有千秋,但是我推荐选择:在每个需要收集的日志服务器上配置filebeat,因为轻量级,用于收集日志;再统一输出给logstash,做对日志的处理;最后统一由logstash输出给els。

3、logstash的优化相关配置

可以优化的参数,可根据自己的硬件进行优化配置:

①pipeline线程数,官方建议是等于CPU内核数

  • 默认配置 ---> pipeline.workers: 2;

  • 可优化为 ---> pipeline.workers: CPU内核数(或几倍CPU内核数)。

②实际output时的线程数

  • 默认配置 ---> pipeline.output.workers: 1;

  • 可优化为 ---> pipeline.output.workers: 不超过pipeline线程数。

③每次发送的事件数

  • 默认配置 ---> pipeline.batch.size: 125;

  • 可优化为 ---> pipeline.batch.size: 1000。

④发送延时

  • 默认配置 ---> pipeline.batch.delay: 5;

  • 可优化为 ---> pipeline.batch.size: 10。

总结:

通过设置-w参数指定pipeline worker数量,也可直接修改配置文件logstash.yml。这会提高filter和output的线程数,如果需要的话,将其设置为cpu核心数的几倍是安全的,线程在I/O上是空闲的。

默认每个输出在一个pipeline worker线程上活动,可以在输出output中设置workers设置,不要将该值设置大于pipeline worker数。

还可以设置输出的batch_size数,例如ES输出与batch size一致。

filter设置multiline后,pipline worker会自动将为1,如果使用filebeat,建议在beat中就使用multiline,如果使用logstash作为shipper,建议在input中设置multiline,不要在filter中设置multiline。

Logstash中的JVM配置文件:

Logstash является Java на основе разработки программы должна работать в JVM, он может быть установлен для виртуальной машины Java с помощью настройки jvm.options. Так, например, максимальная и минимальная память, механизм сборки мусора и так далее. распределение памяти JVM не может быть слишком большой, не слишком мало, слишком медленно операционной сборки системы. Слишком мало, чтобы привести не начать. Значение по умолчанию выглядит следующим образом:

  • Xms256m # минимальное использование памяти;

  • Xmx1g # максимальное использование памяти.

4, вопросы, связанные с введением Redis

filebeat может быть введено непосредственно в logstash (индексатор), но не logstash никакой функции хранения, если вам необходимо перезапустить все связанные с необходимостью остановить удар, а затем остановить logstash, эксплуатацию и техническое обслуживание вызвало проблему, кроме того, данные будут потеряны, если исключение происходит logstash, вводятся как Redis буфер данных пула, когда аномальная остановка logstash можно увидеть из кэша данных в клиенте Redis в Redis;

Redis можно использовать список (может быть до 4294967295 баров) или публиковать подписываться режим хранения;

Redis сделать ELK оптимизированной очереди буфера:

  • Не связывайте 0.0.0.0 # слушает локальный порт;

  • requirepass ilinux.io # добавить пароль для безопасной работы;

  • Только очередь, постоянное хранение не является необходимой, отключить все постоянные функции:

    Снимок (RDB файлы) и дополнительные файлы (AOF файл), более высокая производительность;

    сохранить «» Отключить моментальный снимок;

    appendonly не близко RDB.

  • Стратегии ликвидации отключить память, максимальный объем памяти

    maxmemory 0 #maxmemory является 0, когда у нас нет ограничений на использование памяти Redis.

5, узел Elasticsearch Оптимизация

Аппаратная конфигурация сервера, параметры ОС:

1) конфигурации /etc/sysctl.conf

ВИМ /etc/sysctl.conf

① vm.swappiness = 1 #ES рекомендуем этот параметр установлен в 1, что значительно сокращает размер раздела подкачки, вынуждены максимально использовать память, внимание, чтобы не установить в 0, что может вызвать OOM

② net.core.somaxconn = максимальная длина каждого монитора очереди порта определяет # 65535

③ vm.max_map_count = 262144 # ограничить число процесса может иметь VMA (область виртуальной памяти). Виртуальная область памяти представляет собой непрерывную область пространства виртуальных адресов. Когда число VMA превышает это значение, ОЫЙ

Максимальное количество ④ fs.file-макс = 518144 # Установить распределение ядра Linux файловых дескрипторов

[Root @ elasticsearch] # Sysctl -p вступают в силу о.

2) Конфигурация limits.conf

ВИМ /etc/security/limits.conf

elasticsearch мягкий nofile 65535

elasticsearch жесткий nofile 65535

elasticsearch мягкий memlock неограничен

elasticsearch жесткий memlock неограничен

3) Для того, чтобы сделать постоянные вышеуказанные параметры, но и установить два места:

ВИМ /etc/pam.d/common-session-noninteractive

ВИМ /etc/pam.d/common-session

Добавьте следующие атрибуты:

сессии требуется pam_limits.so

Вы, возможно, потребуется перезапустить, чтобы вступили в силу.

Elasticsearch файл конфигурации виртуальной машины Java

-Xms2g

-Xmx2g

  • Минимальный размер кучи (в Xms) и максимальный размер кучи (Xmx) устанавливают равными друг другу.

  • Elasticsearch больше стеки доступны, тем больше может быть использован в кэш-памяти. Заметим, однако, может сделать вас куча слишком много времени пауз для сбора мусора.

  • Xmx установлено не более чем 50% физической памяти, чтобы обеспечить кэш файловой системы осталось ядро ​​достаточно физической памяти.

  • Не установлено для виртуальной машины Java Xmx выше критического значения указателя сжиматься, точные обрезания разные, но близко к 32 Гб. Не превышать 32G, если пространство является большим, запустить несколько экземпляров, не делает пример слишком много памяти.

Elasticsearch параметры оптимизации профиля:

1) ВИМ elasticsearch.yml

bootstrap.memory_lock: правда # заперта памяти, без использования свопа

# Cache, нитки и другие оптимизации следующим образом

bootstrap.mlockall: правда

transport.tcp.compress: правда

indices.fielddata.cache.size: 40%

indices.cache.filter.size: 30%

indices.cache.filter.terms.size: 1024MB

ThreadPool:

поиск:

Тип: кэшируются

Размер: 100

QUEUE_SIZE: 2000

2) установить переменную окружения

ВИМ экспорт /etc/profile.d/elasticsearch.sh ES_HE AP _size = 2g #Heap Размер физической памяти не более чем на половину и меньше, чем 32G.

Оптимизация кластера (я не использовал кластер):

  • ES является распределенной памяти, автоматически обнаруживаются и добавляются к множеству кластеров, когда тот же cluster.name;

  • Кластер будет автоматически выбирать мастер, когда мастер вниз для переизбрания;

  • Для того, чтобы предотвратить «расщепленный мозг», число кластеров предпочтительно представляют собой нечетное число;

  • Для эффективного управления узлами, может быть закрыто открытие вещания zen.ping.multicast.enabled :. Ложные и расположенные одноадресной discovery.zen.ping.unicast.hosts группы узла: [ «IP1», «IP2», «IP3»].

6, проверка производительности

Проверьте входную и выходную характеристику:

Logstash и служб, выполняющихся скорость совпадает связно, и это может быть входной и выходной скорости, как быстро.

Проверьте параметры системы:

1) центральный процессор

  • Обратите внимание, перегружен ли ЦП. Вы можете использовать топ-H параметры зрения процесса в системах Linux / Unix, а также итоги.

  • Если загрузка процессора слишком высока, перейти непосредственно проверить раздел JVM кучи и проверьте настройки Logstash работника.

2) Память

  • Примечание Logstash работает в виртуальной машине Java, поэтому он будет использовать только максимальная память, выделенную для него.

  • Проверьте другие приложения, которые используют много памяти ситуации, которая приведет к Logstash подкачки на жестком диске, когда физическая память выходит за рамки данного дела будет занимать память в приложении.

. 3) I / O монитор операций ввода-вывода Насыщение диска / проверка

  • 使用Logstash plugin(例如使用文件输出)磁盘会发生饱和。

  • 当发生大量错误,Logstash生成大量错误日志时磁盘也会发生饱和。

  • 在Linux中,可使用iostat,dstat或者其他命令监控磁盘I/O。

4)监控网络I/O

  • 当使用大量网络操作的input、output时,会导致网络饱和。

  • 在Linux中可使用dstat或iftop监控网络情况。

检查JVM heap:

  • heap设置太小会导致CPU使用率过高,这是因为JVM的垃圾回收机制导致的。

  • 一个快速检查该设置的方法是将heap设置为两倍大小然后检测性能改进。不要将heap设置超过物理内存大小,保留至少1G内存给操作系统和其他进程。

  • 你可以使用类似jmap命令行或VisualVM更加精确的计算JVM heap。

如有更多优化方法,或是难点解决的方法,欢迎在留言区补充~

作者:alonghub

来源:

https://www.cnblogs.com/along21/p/8613115.html

рекомендация

отblog.csdn.net/u013322876/article/details/89852717