【六】Kafka集群搭建

创建 kafka 的数据目录:

mkdir -p data/kafka
scp -r data/ 192.168.56.102:`pwd`
scp -r data/ 192.168.56.103:`pwd`

# 将 kafka 解压至 
tar -zxvf kafka_2.12-2.3.0.tgz -C /usr/local/
# 将 kafka 目录同步到其他两台机器
scp -r kafka_2.12-2.3.0/ 192.168.56.102:/usr/local
scp -r kafka_2.12-2.3.0/ 192.168.56.103:/usr/local

分别在三台机器上进行配置

config/server.properties
192.168.56.101:

broker.id=0
# 数据目录
log.dirs=/root/data/kafka
# 指定hostname, 可通过 hostname 命令查看 hostname
listeners=PLAINTEXT://192.168.56.101:9092
zookeeper.connect=192.168.56.101:2181,192.168.56.102:2181,192.168.56.103:2181

192.168.56.102:

broker.id=1
log.dirs=/root/data/kafka
listeners=PLAINTEXT://192.168.56.102:9092
# 配置zk集群
zookeeper.connect=192.168.56.101:2181,192.168.56.102:2181,192.168.56.103:2181

192.168.56.103:

broker.id=2
log.dirs=/root/data/kafka
listeners=PLAINTEXT://192.168.56.103:9092
zookeeper.connect=192.168.56.101:2181,192.168.56.102:2181,192.168.56.103:2181

启动 Kafka

分别在三台机器上启动 kafka

bin/kafka-server-start.sh config/server.properties &

创建 topic

bin/kafka-topics.sh  --zookeeper 192.168.56.101:2181 --create    --topic market_topic --partitions 4  --replication-factor 3
# 查看topic列表
bin/kafka-topics.sh --list --zookeeper 192.168.56.101:2181
#启动一个消费者
bin/kafka-console-consumer.sh --bootstrap-server 192.168.56.101:9092,192.168.56.102:9092,192.168.56.103:9092 --topic market_topic
# 启动一个生产者
bin/kafka-console-producer.sh --broker-list 192.168.56.101:9092,192.168.56.102:9092,192.168.56.103:9092 --topic market_topic

创建完成后在数据目录里可以看到我们的 4 个分区:
在这里插入图片描述

# 查看 topic 信息
bin/kafka-topics.sh --zookeeper 192.168.56.101:2181 --describe pic market_topic

在这里插入图片描述
红框表示这个分区在哪台机器上,replicas 分布的机器,Isr 表示 follower 的数据是和 leader 保持同步的。

猜你喜欢

转载自blog.csdn.net/jiaobuchong/article/details/104385417