SparkStreaming学习札记2-2020-2-13--SparkStreaming实时流处理项目实战

第9章 Spark Streaming整合Flume

1.Receiver方式整合
1)启动zk
./zkServer.sh start
2)启动Kafka
./kafka-server-start.sh -daemon /home/hadoop/app/kafka_2.11-0.9.0.0/config/server.properties
其中-daemon是指后台运行
3)创建topic
./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic kafka_streaming_topic
其中–replication-factor 1是指副本为1
-partitions 1分区为1
查看是否创建成功
–zookeeper localhost:2181
4)通过控制台来测试本topic是否能够正常的生产和消费信息
生产者
cd /home/hadoop/app/kafka_2.11-0.9.0.0/bin

./kafka-console-producer.sh --broker-list localhost:9092 --topic kafka_streaming_topic

消费者
cd /home/hadoop/app/kafka_2.11-0.9.0.0/bin

./kafka-console-consumer.sh --zookeeper localhost:2181 --topic kafka_streaming_topic

发布了22 篇原创文章 · 获赞 0 · 访问量 453

猜你喜欢

转载自blog.csdn.net/qq_36956082/article/details/104293425
今日推荐