zookeeper的集群部署

  1. 上传安装包到集群服务器
  2. 解压:  tar -zxvf jdk-8u131-linux-x64.tar.gz -C /usr/local/java
  3. 修改配置文件: 进入zookeeper的安装目录的conf目录

cp zoo_sample.cfg zoo.cfg

vi zoo.cfg

# The number of milliseconds of each tick

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/root/zkdata

clientPort=2181

#autopurge.purgeInterval=1

server.1=hdp20-01:2888:3888

server.2=hdp20-02:2888:3888

server.3=hdp20-03:2888:3888

  • 对3台节点,都创建目录 mkdir /root/zkdata
  • 对3台节点,在工作目录中生成myid文件,但内容要分别为各自的id: 1,2,3

hdp20-01上:  echo 1 > /root/zkdata/myid

hdp20-02上:  echo 2 > /root/zkdata/myid

hdp20-03上:  echo 3 > /root/zkdata/myid

  • 从hdp20-01上scp安装目录到其他两个节点(几台机器上路径都一样的)

scp -r zookeeper-3.4.6/ hdp20-02:$PWD

scp -r zookeeper-3.4.6/ hdp20-03:$PWD

启动zookeeper集群

  • zookeeper没有提供自动批量启动脚本,需要手动一台一台地起zookeeper进程

在每一台节点上,运行命令:

进入bin目录,./zkServer.sh start

启动后,用jps应该能看到一个进程:QuorumPeerMain
但是,光有进程不代表zk已经正常服务,需要用命令检查状态:

./zkServer.sh status

能看到角色模式:为leader或follower,即正常了。

猜你喜欢

转载自blog.csdn.net/DH2442897094/article/details/88715337