通过flume把日志文件内容写入kafka主题

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/m0_37786447/article/details/80577798

首先自行安装flume和 kafka当然还要jdk,我flume版本是1.6的kafka版本2.11,jdk1.8。

首先在路径flume下的conf里面创建一个logtokafka.conf文件进行配置配置内容如下。

agent.sources=r1
agent.sinks=k1
agent.channels=c1

agent.sources.r1.type=exec
agent.sources.r1.command=tail -F /opt/log.log
agent.sources.r1.restart=true
agent.sources.r1.batchSize=1000
agent.sources.r1.batchTimeout=3000
agent.sources.r1.channels=c1

agent.channels.c1.type=memory
agent.channels.c1.capacity=102400
agent.channels.c1.transactionCapacity=1000

agent.channels.c1.byteCapacity=134217728
agent.channels.c1.byteCapacityBufferPercentage=80

agent.sinks.k1.channel=c1
agent.sinks.k1.type=org.apache.flume.sink.kafka.KafkaSink
agent.sinks.k1.kafka.topic=logtokafka123
agent.sinks.k1.kafka.bootstrap.servers=192.168.72.129:9092,192.168.72.130:9092,192.168.72.131:9092
agent.sinks.k1.serializer.class=kafka.serializer.StringEncoder
agent.sinks.k1.flumeBatchSize=1000
agent.sinks.k1.useFlumeEventFormat=true

配置conf 中的flume-env.sh 文件,没有的cp 一下flume-env.sh .template 。

export JAVA_HOME=/opt/jdk1.8.0_161/

启动flume-agent 

./bin/flume-ng agent -c conf -f conf/logtokafka.conf -n agent -Dflume.root.logger=INFO,console 

最后可以通过以下命令在kafka下进行查看主题中是否我们日志里面的内容:

 ./kafka-console-consumer.sh  --zookeeper localhost--topic logtokafka --from-beginning


猜你喜欢

转载自blog.csdn.net/m0_37786447/article/details/80577798