kafka集群搭建-----storm集群搭建
kafka集群搭建
1、zookeeper集群搭建
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/ubuntu/apps/zookeeper-3.4.7/data
clientPort=2181
server.1=s1:2888:3888
server.2=s2:2888:3888
server.3=s3:2888:3888
分别在s1、s2、s3三台主机的dataDir目录下创建myid文件,其内容为分别为1、2、3
#2、启动zookeeper集群
zkServer.sh start
zkServer.sh status
#3、kafka核心配置文件(三台机器)
主机s1中的server.properties文件
broker.id=0
host.name=s1
zookeeper.connect=s1:2181,s2:2181,s3:2181
主机s2中的server.properties文件
broker.id=1
host.name=s2
zookeeper.connect=s1:2181,s2:2181,s3:2181
主机s3中的server.properties文件
broker.id=2
host.name=s3
zookeeper.connect=s1:2181,s2:2181,s3:2181
请确保每台kafka配置文件中的broker.id唯一。zookeeper.connect参数为zookeeper集群的主机地址及端口号。
host.name为ip或hosts文件中ip与主机地址之间的映射名。程序代码中必须用host.name指定的值否则客户端代码连接报错
#4、启动kafka集群
分别在三台kafka主机上启动kafka server
kafka-server-start.sh config/server.properties &
#5、在集群环境中创建topic
kafka-topics.sh --create --zookeeper s1:2181 --replication-factor 3 --partitions 1 --topic kafka-storm
#6、查看集群环境中创建的topic
kafka-topics.sh --list --zookeeper s1:2181
#7、查看集群环境中指定topic的describe
kafka-topics.sh --describe --zookeeper s1:2181 --topic kafka-storm
Topic:kafka-storm PartitionCount:1 ReplicationFactor:3 Configs:
Topic: kafka-storm Partition: 0 Leader: 1 Replicas: 1,2,0 Isr: 1,2,0
#8、创建一个终端producer(生产者)
kafka-console-producer.sh --broker-list s1:9092 --topic kafka-storm
#9、创建一个终端consumer(消费者)
kafka-console-consumer.sh --zookeeper s1:2181 --from-beginning --topic kafka-storm
注:--from-beginning将每次从头开始读消息。不加该参数则只获取最新发送的消息。
storm集群搭建
首先需要搭建zookeeper集群
#1、核心配置文件
storm.zookeeper.servers:
- "s1"
- "s2"
- "s3"
nimbus.host: "s1"
其中s1、s2、s3为zookeeper集群。nimbus.host指定nimbus所在主机
#2、启动storm集群
在nimbus所在主机上启动
storm nimbus &
storm ui &
在storm集群中其他主机上启动supervisor
storm supervisor &
猜你喜欢
转载自tangkuo.iteye.com/blog/2351232
今日推荐
周排行