mac elk搭配kafka工作

前面我已经搭建好了elk组件,也已经启动过elk了,也已经安装好了zookeeper和kafka服务并且启动了,能看到kafka在命令行的生产和消费流程,那么此时我想在kibana中看到kafka中的消息,那么此时就要让logstash的input,即输入不再是之前配置的file

input {
    
    
   file {
    
    
      path => ["/Users/java0904/Downloads/test.txt"]
    }
  }
 output {
    
    
   elasticsearch{
    
    
      hosts => ["http://localhost:9200"]
   }
}

要改为kakfa,只需要更改配置文件就好了,我的配置文件的位置是

cd /Users/java0904/Downloads/logstash-7.8.1

在这里插入图片描述

于是我cp了一份conf文件,改为如下配置

input {
    
    
   file {
    
    
      path => ["/Users/java0904/Downloads/test.txt"]
    }
  }
 output {
    
    
   elasticsearch{
    
    
      hosts => ["http://localhost:9200"]
   }
}

重新启动一下logstash

bin/logstash -f test_logstash.conf

报错:

在这里插入图片描述

解决方案

cd /data
rm .lock

在这里插入图片描述

重新启动后ok

再次打开kibana界面http://localhost:5601/

可以看到消息已经同步到es上面了

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/silk_java/article/details/109023852
mac