SpringBoot+Kafka+ELK集成日志采集可视化框架

目录

 

1.前言

2.实践代码(以下操作都在WIN7系统)

2.1环境背景

2.2环境搭建

      2.2.1启动zookeeper(因为kafka依赖zookeeper)

      2.2.2启动kafka

      2.2.3启动elasticsearch 

      2.2.4启动logstash

      2.2.5启动kibana

扫描二维码关注公众号,回复: 8545057 查看本文章

      2.2.6启动springboot项目

3.总结


1.前言

很久没有写技术博客了,最近自己搭建了一套SpringCloud框架(github地址:https://github.com/githubyy602/SpringCloudDemo),并研究了一下ELK企业级日志框架,下面和大家分享一下搭建和实践过程中的一些坑点和心得。

 

2.实践代码(以下操作都在WIN7系统)

   2.1环境背景

     ①SpringBoot使用的是1.5.10版本,相关版本先粘一下

<properties>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
        <java.version>1.8</java.version>
        <!--当前最新稳定版本-->
        <spring.cloud.version>Dalston SR1</spring.cloud.version>
        <spring.cloud.netflix.version>1.4.7.RELEASE</spring.cloud.netflix.version>
        <spring.boot.version>1.5.10.RELEASE</spring.boot.version>
        <mybatisplus.starter.version>1.0.4</mybatisplus.starter.version>
        <mybatisplus.version>2.0.7</mybatisplus.version>
        <mysql.connector.version>8.0.18</mysql.connector.version>
</properties>

②使用到的kafka和ELK软件版本(注意elk最好使用同一版本,因为有版本差异问题):

③pom依赖

<dependencies>
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-netflix-eureka-client</artifactId>
            <version>${spring.cloud.netflix.version}</version>
        </dependency>

        <!-- https://mvnrepository.com/artifact/org.springframework.boot/spring-boot-starter-web -->
        <!--没有此以来客户端服务启动会立即退出-->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
            <version>${spring.boot.version}</version>
        </dependency>

        <!-- SpringCloud 整合 Feign -->
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-feign</artifactId>
            <version>${spring.cloud.netflix.version}</version>
        </dependency>

        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-netflix-hystrix</artifactId>
            <version>${spring.cloud.netflix.version}</version>
        </dependency>

        <!--hystrix dashboard 必须加这个,不然监控UI界面报错Unable to connect to Command Metric Stream-->
        <!--此处暂时注释掉是因为与logback中相关jar包logback-core因低版本会报错-->
        <!--<dependency>-->
            <!--<groupId>org.springframework.boot</groupId>-->
            <!--<artifactId>spring-boot-starter-actuator</artifactId>-->
            <!--<version>${spring.boot.version}</version>-->
        <!--</dependency>-->

        <!--apollo依赖-->
        <dependency>
            <groupId>com.ctrip.framework.apollo</groupId>
            <artifactId>apollo-client</artifactId>
            <version>1.1.0</version>
        </dependency>

        <!-- https://mvnrepository.com/artifact/com.ctrip.framework.apollo/apollo-core -->
        <dependency>
            <groupId>com.ctrip.framework.apollo</groupId>
            <artifactId>apollo-core</artifactId>
            <version>1.1.0</version>
        </dependency>

        <!-- https://mvnrepository.com/artifact/com.github.danielwegener/logback-kafka-appender -->
        <!--以下依赖是logback接入kafka所需依赖-->
        <dependency>
            <groupId>com.github.danielwegener</groupId>
            <artifactId>logback-kafka-appender</artifactId>
            <version>0.2.0-RC1</version>
        </dependency>
        <dependency>
            <groupId>ch.qos.logback</groupId>
            <artifactId>logback-classic</artifactId>
            <version>1.2.3</version>
            <scope>runtime</scope>
        </dependency>
        <dependency>
            <groupId>ch.qos.logback</groupId>
            <artifactId>logback-core</artifactId>
            <version>1.2.3</version>
        </dependency>

        <!--kafka依赖-->
        <dependency>
        <groupId>org.springframework.kafka</groupId>
        <artifactId>spring-kafka</artifactId>
        </dependency>

        <!-- https://mvnrepository.com/artifact/net.logstash.logback/logstash-logback-encoder -->
        <dependency>
            <groupId>net.logstash.logback</groupId>
            <artifactId>logstash-logback-encoder</artifactId>
            <version>4.11</version>
        </dependency>

</dependencies>

  2.2环境搭建

       2.2.1启动zookeeper(因为kafka依赖zookeeper)

         进入zookeeper安装目录conf目录,将zoo_sample.cfg文件拷贝在当前目录,改名为zoo.cfg(里面的配置可以自行调整,我此次没有调整,使用默认设置)。再进入bin目录下,点击zkServer.cmd启动。

       2.2.2启动kafka

        进入kafka安装目录,在config目录下,有一个server.properties。此处是关于kafka-server启动的使用到的配置(也可以自行调整),我主要调整了日志路径位置和添加了Topic删除设置:

log.dirs=E:/springcloud-log/kafka-log
#设置可以删除topic,否则只是逻辑删除,不是真正意义删除
delete.topic.enable=true

      然后通过通过cmd命令:kafka-server-start.bat ..\..\conf\server.properties 启动kafka服务,默认端口9092

     启动后还需要创建主题topic,使用命令kafka-topics.bat --create --zookeeper 127.0.0.1:2181 --replication-factor 1 --partitions 1 --topic testlog(testlog是topic名称,后面会logstash和logback.xml文件会用到)。

     ※此处重点讲下删除topic,因为删除kafka可能会提示为标记删除,并没有真正删除,并且我就是因为删除topic不完全,导致后续kafka启动有问题。在没有彻底删除topic之后,大家可以到zookeeper配置文件指定的日志存放目录下删除zookeeper日志,以及删除掉kafka指定日志目录的全部文件,再重启zookeeper和kafka即可。但需要重新创建topic。

     另外贴一下删除和查看命令:

    删除Topic:
    kafka-topics.bat --delete --zookeeper 127.0.0.1 -topic test-channel

    查看Topic:

    kafka-topics.bat --list --zookeeper localhost:2181

     2.2.3启动elasticsearch

    直接进入bin目录下,点击elasticsearch.bat启动即可。在config目录下通过elasticsearch.yml可以设置相关配置(我本次使用默认内容)。

     2.2.4启动logstash

    在启动logstash之前,需要先在根目录下(或其他目录)创建一个配置文件,我的名为core.conf,配置文件的内容如下:

  

input {
   kafka {
    #此处是kafka的ip和端口(千万不要写成zookeeper的ip端口,否则无法收集到日志)
    bootstrap_servers => "localhost:9092"
    #此处是我前面提到的topic名称
    topics => ["testlog"]
    auto_offset_reset => "latest"
  }
}

output {
    elasticsearch {
       #es的Ip和端口
       hosts => ["localhost:9200"]
    }
}

    然后通过在bin\windows目录下,通过命令logstash.bat -f ..\core.conf --config.reload.automatic启动logstash即可。(--config.reload.automatic可以是配置文件在修改后立即重新加载生效)。上面的配置文件是使用kafka作为入口,收集日志到logstash内,然后再写入到es中,logstash相当一个中间运输管道。其实也可以使用logstash自带的TCP模式接受输入的日志文件,在这里也给大家粘一下相关配置:

input {
        tcp {
        host => "127.0.0.1"
        port => 9100
        mode => "server"
        tags => ["tags"]
        codec => json_lines
        }
}

output {
        stdout { codec => rubydebug }
        #输出到es
        elasticsearch { hosts => "127.0.0.1:9200" 
}

但是为什么使用kafka接收日志呢,是为了减少logstash对于日志进入时的压力。kafka的特性使用过的人应该都清楚,拥有这10W级别每秒的单机吞吐量,所以很适合作为数据来源缓冲区。

    2.2.5启动kibana

 直接进入kibana的下载安装目录,进入bin目录点击启动kibana.bat即可。在config目录中,有一个配置文件,里面有如下两行配置:

#kibana启动后的端口号
server.port: 5601
#连接的es的端口和ip
elasticsearch.url: "http://localhost:9200"

    2.2.6启动springboot项目

  在启动自己的springboot项目即可,我这边是springcloud框架搭建的项目,下面贴一下logback-spring.xml文件的配置:

<?xml version="1.0" encoding="UTF-8"?>
<!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true。 scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,
	默认单位是毫秒当scan为true时,此属性生效。默认的时间间隔为1分钟。 debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。
	默认值为false。 -->
<!-- <configuration scan="false" scanPeriod="60 seconds" debug="false"> -->

<configuration>

    <!--设置上下文名称,用于区分不同应用程序的记录。一旦设置不能修改, 可以通过%contextName来打印日志上下文名称 -->
    <contextName>kafka-log-test</contextName>
    <!-- 定义日志的根目录 -->
    <property name="logDir" value="E:/springcloud-log/kafka-log" />
    <!-- 定义日志文件名称 -->
    <property name="logName" value="kafkaLog"></property>


    <!-- ConsoleAppender 表示控制台输出 -->
    <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">
        <!-- 日志输出格式: %d表示日期时间, %thread表示线程名, %-5level:级别从左显示5个字符宽度, %logger{50}
            表示logger名字最长50个字符,否则按照句点分割。 %msg:日志消息, %n是换行符 -->
        <encoder>
            <pattern>%d{HH:mm:ss.SSS} %contextName [%thread] %-5level %logger{36} - %msg%n</pattern>
        </encoder>
    </appender>

    <!-- 异常错误日志记录到文件  -->
    <appender name="logfile" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <!-- <Encoding>UTF-8</Encoding> -->
        <File>${logDir}/${logName}.log</File>
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <FileNamePattern>${logDir}/history/test_log.%d{yyyy-MM-dd}.rar</FileNamePattern>
            <maxHistory>30</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>%d{HH:mm:ss.SSS} %contextName [%thread] %-5level %logger{36} - %msg%n</pattern>
        </encoder>
    </appender>


    <appender name="kafkaAppender" class="com.github.danielwegener.logback.kafka.KafkaAppender">
        <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
            <pattern>%d{HH:mm:ss.SSS} [%thread] %-5level %logger{36} - %msg%n</pattern>
        </encoder>
        <!-- 此处为kafka的Topic名称,千万不要写错 -->
        <topic>testlog</topic>
        <!-- we don't care how the log messages will be partitioned  -->
        <keyingStrategy class="com.github.danielwegener.logback.kafka.keying.NoKeyKeyingStrategy" />

        <!-- use async delivery. the application threads are not blocked by logging -->
        <deliveryStrategy class="com.github.danielwegener.logback.kafka.delivery.AsynchronousDeliveryStrategy" />

        <!-- each <producerConfig> translates to regular kafka-client config (format: key=value) -->
        <!-- producer configs are documented here: https://kafka.apache.org/documentation.html#newproducerconfigs -->
        <!-- bootstrap.servers is the only mandatory producerConfig -->
        <producerConfig>bootstrap.servers=localhost:9092</producerConfig>
        <!-- don't wait for a broker to ack the reception of a batch.  -->
        <producerConfig>acks=0</producerConfig>
        <!-- wait up to 1000ms and collect log messages before sending them as a batch -->
        <producerConfig>linger.ms=1000</producerConfig>
        <!-- even if the producer buffer runs full, do not block the application but start to drop messages -->
        <producerConfig>max.block.ms=0</producerConfig>
        <!-- define a client-id that you use to identify yourself against the kafka broker -->
        <producerConfig>client.id=0</producerConfig>

    </appender>


    <root level="debug">
        <appender-ref ref="CONSOLE" />
        <appender-ref ref="logfile"/>
        <appender-ref ref="kafkaAppender" />
    </root>

</configuration>

在项目中,可以自行添加打印的日志,我的打印代码如下:

@RestController
public class UserController {

    private Logger logger = LoggerFactory.getLogger(this.getClass());

    //apollo上的配置
    @Value("${apollo.config.name}")
    private String apolloConfigName;

    @Resource
    private IUserService userService;

    @RequestMapping(value = "/user/getUsers")
    public String getUsers(){
        return userService.getUserInfos();
    }

    @RequestMapping(value = "/user/getUserName")
    public String getUserName(){
        return "Test for zuul, i'm is user1";
    }

    @RequestMapping(value = "/user/getUserNameFromConfig")
    public String getUserNameFromConfig(){
        logger.warn("==============测试日志,很长很长很长很长很长很长很长很长很长很长很长很长很长很长很长很长======");
        return "Hello , my name is " + apolloConfigName;
    }

}

启动项目之后,请求一下自己的接口,然后进入的kibana可视化界面:

刚开始进来的时候,可能会提示你需要添加索引,但是logstash-*是默认的索引,所以在management的Index Patterns标签页中直接点击Create即可。点击Discover即可看到刚才调用接口所打印的日志,我的日志如下:

3.总结

   我本次搭建这套框架差不多用了一天半的时间,中间遇到许多坑点。比如:

  1.pom文件中的依赖冲突,如spring-boot-starter-actuator依赖所包含的logback-core因低版本,其中有一个Encoder类没有  encode方法报错,后来我是暂时去除该依赖,自己引入了相关依赖解决的。其实应该可以通过maven的exclusions去除相关冲突依赖即可。

  2.logstash的配置文件内容,因熟悉其内容字段含义和内容格式,导致过程中多次获取不到日志。后来百度查到logstash2和5版本的配置有很大的差异,大家需要注意。

  3.还有就是整个框架搭建完成后,全部启动会发现kibana中并没有日志显示。后来一步步慢慢分析,先使用logstash自带的tcp方式与logback整合,收集日志,发现是可以引入到es中并在kibana中显示。于是推断是logback和kafka整合出了问题。所以只能从kafka入手,先看了我存放日志文件的目录:

发现这个文件中大小一直是0kb,由此可见项目的日志根本没有收集到kafka中。检查了logback中的topic配置无误,然后又检查了kafka的topic列表,最终通过删除所有原先的topic和相关日志,重新创建解决了这个kafka收集项目日志的问题。但最终发现,日志还是没有通过logstash进入到es中,接着继续排查,发现是logstash的配置文件问题。(这一块真的把我坑惨了,框架整体搭建完,在这一步耗了一般的时间)

  4.我此次只是将框架搭建成功并启动,但还有很多地方不够完善。如kafka集群,zookeeper集群配置等,还有es中创建索引等等,后续将会继续完善更新。

 最后希望能帮到各位也在钻研学习的小伙伴,同事希望大佬不吝赐教。。。

 并分享几个过程中学习和参考的帖子链接:

 https://www.clxz.top/2019/03/30/1124/

 https://www.cnblogs.com/niechen/p/10149962.html

发布了43 篇原创文章 · 获赞 39 · 访问量 6万+

猜你喜欢

转载自blog.csdn.net/yy339452689/article/details/103296017