logstash kafka leer desde el formato de entrada del registro es JSON

Jefe permiten a los investigadores ELK, después de varios días de exploración, y, finalmente, que el proceso siga a través.
Versión:
Kafka solía vivir 0.10.2.0
logstash 5.3.0
elasticsearch 5.3.0
Modificar la configuración del archivo logstash
logstash.conf vi

input {
    kafka{
        bootstrap_servers => ["10.10.10.10:9092"]
        group_id => "es"
        topics => ["myTest"]
        codec => json {
                 charset => "UTF-8"
        }
    }
}

output {
        # 处理后的日志落到本地文件
        file {
                path => "/data/logstash/test.log"
                flush_interval => 0
       }
       # 处理后的日志入es
       elasticsearch {
        hosts => ["10.10.10.20:9200"]
        index => "test"
        id => "my_plugin_id"
        document_id => "%{userid}"
        document_type => "mytype"
       }
}

En el que la entrada del códec especificado => JSON JSON puede analizar la cadena de kafka
índice de salida especificada en el índice, DOCUMENT_TYPE tipo especificado, id_documento especificar la clave primaria
si hay duplicados clave principal será automáticamente sobrescrito!

Publicados 118 artículos originales · ganado elogios 25 · Vistas de 150.000 +

Supongo que te gusta

Origin blog.csdn.net/lhxsir/article/details/95991529
Recomendado
Clasificación