消息队列之kafka(整合flume)

补充:在flume的的lib中已经有了kafka的依赖包,所以直接使用flume的配置文件即可。
这里举出kafka+flume的典型场景:(Kafka-----sink

source :netcat
channel:memory
sink:kafka sink

netcat-kafka.conf

#别名
a1.sources=s1
a1.channels=c1
a1.sinks=k1

#source
a1.sources.s1.type=netcat
a1.sources.s1.bind=192.168.5.0
a1.sources.s1.port=6666

#channel
a1.channels.c1.type=memory

#sink
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic = kafka_test  #传入的的主题
a1.sinks.k1.kafka.bootstrap.servers = hadoop02:9092  #kafka集群入口
a1.sinks.k1.kafka.producer.acks = 1   #消息确认级别
#指定压缩的类型
a1.sinks.k1.kafka.producer.compression.type = snappy

a1.sources.s1.channels=c1
a1.sinks.k1.channel=c1

最后启动flume的配置文件即可:
bin/flume-ng agent -n a1 -c conf -f conf/myconf/netcat-kafka.conf -Dflume.root.logger=INFO,console

官网地址http://flume.apache.org/FlumeUserGuide.html#kafka-sink

猜你喜欢

转载自blog.51cto.com/14048416/2337342