Zookeeper-本地集群搭建

简介

Apache Zookeeper 是由 Apache Hadoop 的 Zookeeper 子项目发展而来,现在已经成为了 Apache 的顶级项目。Zookeeper 为分布式系统提供了高效可靠且易于使用的协同服务,它可以为分布式应用提供相当多的服务,诸如统一命名服务,配置管理,状态同步和组服务等。Zookeeper 接口简单,开发人员不必过多地纠结在分布式系统编程难于处理的同步和一致性问题上,你可以使用 Zookeeper 提供的现成(off-the-shelf)服务来实现分布式系统的配置管理,组管理,Leader 选举等功能。

Zookeeper 维护了大规模分布式系统中的常用对象,比如配置信息,层次化命名空间等,本文将从开发者的角度详细介绍 Zookeeper 的配置信息的意义以及 Zookeeper 的典型应用场景(配置文件的管理、集群管理、分布式队列、同步锁、Leader 选举、队列管理等)。

Zookeeper 安装与配置

本文采用 zookeeper-3.4.11 以基础介绍它的安装步骤以及配置信息,最新的代码可以到 Zookeeper 的官网http://zookeeper.apache.org  下载Zookeeper功能强大,但是安装却十分简单,下面重点以伪分布式模式来介绍 Zookeeper 的安装。

伪分布式模式安装

Zookeeper 安装模式包括:单机模式,伪分布式模式和完全的集群模式。单机模式最简单,本文将跳过单机模式安装(单机模式安装步骤参见 Zeekeeper 官方文档http://zookeeper.apache.org/doc/current/zookeeperStarted.html),伪分布式模式与集群模式配置差别不大,由于手头机器有限,所以本文采用了在单台机器上伪分布式安装。

本文在mac上操作,Java 环境为 OpenJDK 1.8。安装 Zookeeper 前首先下载你需要的版本,暂时解压到指定目录(本文解压至~/zookeeper/目录下),并修改配置(可能需要多次修改配置文件),本次伪分布式模拟 3 个 Zookeeper 节点,事先在//usr/local/zk_cluster目录下建立3个文件夹,分别命名为:server1,server2,server3,,然后在每个 serverX 文件夹下面新建 data 和 log 子文件夹。

Zookeeper 的配置文件主要在 conf 目录,包括zoo.cfg (zoo_sample.cfg)和log4j.properties,修改 zoo_sample.cfg,重命名为zoo.cgf,打开zoo.cfg,内容如下:

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper
clientPort=2181

 

 

  • tickTime:这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。
  • dataDir:顾名思义就是 Zookeeper 保存数据的目录,默认情况下,Zookeeper 将写数据的日志文件也保存在这个目录里。
  • clientPort:这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。
  • initLimit:这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 5个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒
  • syncLimit:这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是 2*2000=4 秒
  • server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于 B 都是一样,所以不同的 Zookeeper 实例通信端口号不能一样,所以要给它们分配不同的端口号。

集群目录: 

├── server1
│   ├── data
│   ├── logs
│   └── zookeeper-3.4.11
├── server2
│   ├── data
│   ├── logs
│   └── zookeeper-3.4.11
└── server3
    ├── data
    ├── logs
    └── zookeeper-3.4.11

查看目录结构的命令 tree -d -L 2

 

继续修改~/zookeeper/目录中的zookeeper配置文件文件(server2的配置文件,注意 clientPort=2182,与 server1 中的 clientPort=2181 不同,后续修改配置均需设置不同的 clientPort),内容如下:

复制代码
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zk_cluster/server2/data
dataLogDir=/usr/local/zk_cluster/server2/log
clientPort=2182
server.1=127.0.0.1:2886:3886
server.2=127.0.0.1:2887:3887
server.3=127.0.0.1:2888:3888

同样的修改server3

然后在 /usr/local/zk_cluster/server1/data下建立一个myid文件,文件内容为 

echo "1" >> /usr/local/zk_cluster/server1/data/myid

server2 server3 同理

 

依次启动三个服务器节点:创建/usr/local/zk_cluster/zk_cluster_server_start.sh

内容为:

/usr/local/zk_cluster/server1/zookeeper-3.4.11/bin/zkServer.sh start

/usr/local/zk_cluster/server2/zookeeper-3.4.11/bin/zkServer.sh start

/usr/local/zk_cluster/server3/zookeeper-3.4.11/bin/zkServer.sh start

 

保存后,执行命令.sh 文件即可

 

最后启动一台客户端服务器检测集群是否启动成功

 

/usr/local/zk_cluster/server1/zookeeper-3.4.11/bin/zkCli.sh -server 127.0.0.1:2181

 回车后可以用命令 ls / 看到zookeeper节点已经注册成功

 

 

 

 

 

猜你喜欢

转载自e-e.iteye.com/blog/2400522