基于Zookeeper搭建Kafka高可用集群

=基于Zookeeper搭建Kafka高可用集群=================================

环境:
jdk
需先搭建好zookeeper并启动


一、kafka基础操作
1. kafka下载
2. 解压
3. 重命名

4. 在kafka目录下创建 kafka-logs 数据文件夹
cd /opt/kafka2.2/
mkdir kafka-logs

5. 修改配置文件
/opt/kafka2.2/config
	vim server.properties

		log.dirs=/opt/kafka2.2/kafka-logs
		zookeeper.connect=master:2181,hadoop002:2181,hadoop003:2181

6.配置kafka环境变量
(目的使用kafka命令不用进到kafka目录执行)
	vi /etc/profile
		export KAFKA_HOME=/app/kafka
		export PATH=$PATH:$KAFKA_HOME/bin

7. 刷新环境变量,使之生效
	source /etc/profile

二、kafka集群操作
2.1. 分发配置好的基础安装包
将配置好的kafka同步到hadoop002 hadoop003服务器的2个节点
scp -r /opt/kafka2.2 hadoop002:/opt/
scp -r /opt/kafka2.2/ hadoop003:/opt/

下面有2件事情要做,	
	修改hadoop002和hadoop003 上kafka的配置文件中的brokerid,全局唯一补鞥重复,由于刚才是复制的同步的因此需要同步后进行修改

2.2. 登录ly-02服务器,修改配置文件
	vim server.properties
	#将broker.id=0修改为等于1

2.3. 登录ly-03服务器,修改配置文件
	vim server.properties
	#将broker.id=0修改为等于2

2.4. 单机后台(也叫守护式) 启动kafka和关闭kafka
	bin/kafka-server-start.sh -daemon config/server.properties
	bin/kafka-server-stop.sh  -daemon config/server.properties

	不能关闭窗口,关闭窗口kafka服务也关了
	这种方式启动确实满足kafka了,但是这种方式也太麻烦了。因此需要手动只做kafka启动关闭集群脚本

三、kafka集群命令脚本操作
看资源:(本人还弄不好)
https://blog.csdn.net/weixin_40816738/article/details/104428791?ops_request_misc=%7B%22request_id%22%3A%22158268907319724845029297%22%2C%22scm%22%3A%2220140713.130056874…%22%7D&request_id=158268907319724845029297&biz_id=0&utm_source=distribute.pc_search_result.none-task

发布了11 篇原创文章 · 获赞 11 · 访问量 124

猜你喜欢

转载自blog.csdn.net/weixin_43307695/article/details/104515860