Kafka快速入门系列(2) | Kafka集群部署(超级简单!!!)

  经过上篇的简单介绍,相信大家对Kafka有了初步的了解,本篇为博主带来的是Kafka的集群部署。

需要的东西博主都已经打包上传到百度云了,如有需要的可以通过链接自取:
链接:https://pan.baidu.com/s/1YtXgkt2430leNgCaNf2SLQ
提取码:jnwl


一. 环境准备

1. 初始化环境准备

  安装jdk,安装zookeeper并保证zk服务正常启动。

  因为在之前的博客中,博主已经将如何搭建Hadoop集群的过程叙述过了,这里就不再重复赘述,有需要的同学可以看看这篇博客《Hadoop分布式环境搭建(简单高效~)》。

  • 1.集群规划
hadoop002 hadoop003 hadoop004
zk zk zk
kafka kafka kafka
  • 2. 所需包

1

二. Kafka集群部署

  • 1. 解压安装包
[bigdata@hadoop002 Kafka]$ tar -zxvf kafka_2.11-0.11.0.2.tgz -C /opt/module/
  • 2. 修改解压后的文件名称
[bigdata@hadoop002 module]$ mv kafka_2.11-0.11.0.2/ kafka
  • 3. 在/opt/module/kafka目录下创建logs文件夹
[bigdata@hadoop002 kafka]$ mkdir logs
  • 4. 修改配置文件
[bigdata@hadoop002 kafka]$ cd config/
[bigdata@hadoop002 config]$ vim server.properties 

// 输入以下内容
#broker的全局唯一编号,不能重复
# 不同机器不能重复
broker.id=0     
#删除topic功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘IO的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka运行日志存放的路径	
# 需要修改的地方,已经以前修改好了
log.dirs=/opt/module/kafka/logs   
#topic在当前broker上的分区个数
num.partitions=1
#用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接Zookeeper集群地址
# 需要求改成自己的
zookeeper.connect=hadoop002:2181,hadoop003:2181,hadoop004:2181 

  • 需要修改的地方①:
    2

  • 需要修改的地方②
    3

  • 需要修改的地方③
    4

  • 5. 配置环境变量

[bigdata@hadoop002 kafka]$ sudo vim /etc/profile

// 添加如下内容
#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin


[bigdata@hadoop002 kafka]$ source /etc/profile

5
由于三台虚拟机已经同时修改好了,所以下面就可以启动集群看看是否成功了

  • 6. 启动集群
// 再启动kafka之前需要先启动zookeeper
[bigdata@hadoop002 zookeeper-3.4.10]$ bin/zkServer.sh start
[bigdata@hadoop003 zookeeper-3.4.10]$ bin/zkServer.sh start
[bigdata@hadoop004 zookeeper-3.4.10]$ bin/zkServer.sh start


[bigdata@hadoop002 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties 
[bigdata@hadoop003 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties 
[bigdata@hadoop004 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties 

  • 下图为成功案例6
  • 7. 启动集群
[bigdata@hadoop002 kafka]$ bin/kafka-server-stop.sh stop 
[bigdata@hadoop003 kafka]$ bin/kafka-server-stop.sh stop
[bigdata@hadoop004 kafka]$ bin/kafka-server-stop.sh stop 

  本次的分享就到这里了,


11

   \color{#FF0000}{看完就赞,养成习惯!!!} ^ _ ^ ❤️ ❤️ ❤️
  码字不易,大家的支持就是我坚持下去的动力。点赞后不要忘了关注我哦!

猜你喜欢

转载自blog.csdn.net/qq_16146103/article/details/105931323