0204-Zookeeper


0

第一章 Zookeeper入门

1.1 概述

  1. Zookeeper是一个开源的分布式的, 为分布式应用提供协调服务的Apache项目
  2. Zookeeper从设计模式角度来理解:是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper就将负责通知已经在Zookeeper上注册的那些观察者做出相应的反应,从而实现集群中类似Master/Slave管理模式
  • 没有zookeeper时:

在这里插入图片描述

  • 有了zookeeper之后
    在这里插入图片描述

zookeeper相当于班主任, 来协调学生和教师之间的教学事务, 所有的学生在班主任那里注册, 班主任保存教师的信息, 当教师有事情无法正常上课时 , 班主任就通知学生.

1.2 特点

1)Zookeeper:一个领导者(leader),多个跟随者(follower)组成的集群。
2)Leader负责进行投票的发起和决议,更新系统状态
3)Follower用于接收客户请求并向客户端返回结果,在选举Leader过程中参与投票
4)集群中只要有半数以上节点存活,Zookeeper集群就能正常服务。
5)全局数据一致:每个server保存一份相同的数据副本,client无论连接到哪个server,数据都是一致的。
6)更新请求顺序进行,来自同一个client的更新请求按其发送顺序依次执行。
7)数据更新原子性,一次数据更新要么成功,要么失败。
8)实时性,在一定时间范围内,client能读到最新数据。

1.3 数据结构

ZooKeeper数据模型的结构与Unix文件系统很类似,整体上可以看作是一棵树,每个节点称做一个ZNode
很显然zookeeper集群自身维护了一套数据结构。这个存储结构是一个树形结构,其上的每一个节点,我们称之为"znode",每一个znode默认能够存储1MB的数据,每个ZNode都可以通过其路径唯一标识

在这里插入图片描述

1.4 应用场景

分布式消息同步和协调机制、服务器节点动态上下线、统一配置管理、负载均衡、集群管理等。

第二章 Zookeeper安装

2.1 本地模式安装部署

  1. 安装前准备

(1) 安装JDK
(2) 拷贝Zookeeper安装包到Linux系统下
(3) 解压到指定目录

[yanlzh@hadoop102 software]$ tar -zxvf zookeeper-3.4.10.tar.gz -C /opt/module/
  1. 配置修改

(1) 将/opt/module/zookeeper-3.4.10/conf这个路径下的zoo_sample.cfg修改为zoo.cfg

[yanlzh@hadoop102 conf]$ mv zoo_sample.cfg zoo.cfg

(2) 打开zoo.cfg文件,修改dataDir路径:
修改如下内容:
dataDir=/opt/module/zookeeper-3.4.10/zkData

(3) 在/opt/module/zookeeper-3.4.10/这个目录上创建zkData文件夹

[yanlzh@hadoop102 zookeeper-3.4.10]$ mkdir zkData
  1. 操作Zookeeper

(1) 启动Zookeeper

[yanlzh@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh start

(2) 查看状态

[yanlzh@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfg
Mode: standalone

(3)启动客户端

[yanlzh@hadoop102 zookeeper-3.4.10]$ bin/zkCli.sh

(4)退出客户端

[zk: localhost:2181(CONNECTED) 0] quit

(5)停止zookeeper

[yanlzh@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh stop

2.2 配置参数解读

Zookeeper中的配置文件zoo.cfg中参数含义解读如下:

  • tickTime =2000:通信心跳数,Zookeeper服务器与客户端心跳时间,单位毫秒

Zookeeper使用的基本时间,服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个tickTime时间就会发送一个心跳,时间单位为毫秒。
它用于心跳机制,并且设置最小的session超时时间为两倍心跳时间。(session的最小超时时间是2*tickTime)

  • initLimit =10:LF初始通信时限

集群中的Follower跟随者服务器与Leader领导者服务器之间初始连接时能容忍的最多心跳数(tickTime的数量),用它来限定集群中的Zookeeper服务器连接到Leader的时限。

  • syncLimit =5:LF同步通信时限

集群中Leader与Follower之间的最大响应时间单位,假如响应超过syncLimit * tickTime,Leader认为Follwer死掉,从服务器列表中删除Follwer。

  • dataDir:数据文件目录+数据持久化路径

主要用于保存Zookeeper中的数据。

  • clientPort =2181:客户端连接端口

监听客户端连接的端口。

2.2 分布式安装部署

  1. 集群规划

在node01、node02和node03三个节点上部署Zookeeper。

  1. 解压安装

(1) 解压Zookeeper安装包到/opt/module/目录下
(2) 同步/opt/module/zookeeper-3.4.10目录内容到node02、node03

[yanlzh@node01 module]$ xsync zookeeper-3.4.10/
  1. 配置服务器编号

(1) 在/opt/module/zookeeper-3.4.10/这个目录下创建zkData

[yalzh@node01 zookeeper-3.4.10]$ mkdir -p zkData

(2) 在/opt/module/zookeeper-3.4.10/zkData目录下创建一个myid的文件

[yanlzh@node01 zkData]$ touch myid

(3) 编辑myid文件
在文件中添加与server对应的编号1
并分别在node02、node03上修改myid文件中内容为2、3

  1. 配置zoo.cfg文件

(1) zoo.cfg 中添加

dataDir=/opt/module/zookeeper-3.4.10/zkData
server.1=node01:2888:3888
server.2=node02:2888:3888
server.3=node03:2888:3888

(2) 分发zoo.cfg 文件

(3) 配置参数解读

server.A=B:C:D

A是一个数字,表示这个是第几号服务器;
集群模式下配置一个文件myid,这个文件在dataDir目录下,这个文件里面有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。
B是这个服务器的地址;
C是这个服务器Follower与集群中的Leader服务器交换信息的端口;
D是万一集群中的Leader服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。

  1. 集群操作
#! /bin/bash
case $1 in
"start"){
        for i in node01 node02 node03
        do
                echo " --------启动 $i zookeeper-------"        
                ssh $i "zkServer.sh start"
        done
        };;
"stop"){
        for i in node01 node02 node03
        do
                echo " --------关闭 $i zookeeper-------"
                ssh $i "zkServer.sh stop"
        done
        };;
esac

第三章 Zookeeper实战

3.1 客户端命令操作

  1. 启动客户端
[yanlzh@node01 zookeeper-3.4.10]$ bin/zkCli.sh
  1. 显示所有命令
[zk: localhost:2181(CONNECTED) 1] help
  1. 查看当前znode中所包含的内容
[zk: localhost:2181(CONNECTED) 0] ls /
[zookeeper]
  1. 查看当前节点的详细数据
[zk: localhost:2181(CONNECTED) 1] ls2 /
[zookeeper]
cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1
  1. 分别创建2个普通节点
[zk: localhost:2181(CONNECTED) 3] create /sanguo "jinlian"
Created /sanguo
[zk: localhost:2181(CONNECTED) 4] create /sanguo/shuguo "liubei"
Created /sanguo/shuguo
  1. 获取节点的值
[zk: localhost:2181(CONNECTED) 5] get /sanguo
jinlian
cZxid = 0x100000003
ctime = Wed Aug 29 00:03:23 CST 2018
mZxid = 0x100000003
mtime = Wed Aug 29 00:03:23 CST 2018
pZxid = 0x100000004
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 7
numChildren = 1
[zk: localhost:2181(CONNECTED) 6] get /sanguo/shuguo
liubei
cZxid = 0x100000004
ctime = Wed Aug 29 00:04:35 CST 2018
mZxid = 0x100000004
mtime = Wed Aug 29 00:04:35 CST 2018
pZxid = 0x100000004
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 6
numChildren = 0
  1. 创建短暂节点
[zk: localhost:2181(CONNECTED) 7] create -e /sanguo/wuguo "zhouyu"
Created /sanguo/wuguo
  1. 创建带序号的节点
[zk: localhost:2181(CONNECTED) 2] create -s /sanguo/weiguo/xiaoqiao "jinlian"
Created /sanguo/weiguo/xiaoqiao0000000000
[zk: localhost:2181(CONNECTED) 3] create -s /sanguo/weiguo/daqiao "jinlian"
Created /sanguo/weiguo/daqiao0000000001
[zk: localhost:2181(CONNECTED) 4] create -s /sanguo/weiguo/diaocan "jinlian"
Created /sanguo/weiguo/diaocan0000000002
  1. 修改节点数据值
[zk: localhost:2181(CONNECTED) 6] set /sanguo/weiguo "simayi" 
  1. 节点的值变化监听
[zk: localhost:2181(CONNECTED) 8] get /sanguo watch
  1. 节点的子节点变化监听(路径变化)
[zk: localhost:2181(CONNECTED) 1] ls /sanguo watch
[aa0000000001, server101]
  1. 删除节点
[zk: localhost:2181(CONNECTED) 4] delete /sanguo/jin
  1. 递归删除节点
[zk: localhost:2181(CONNECTED) 15] rmr /sanguo/shuguo
  1. 查看节点状态
[zk: localhost:2181(CONNECTED) 17] stat /sanguo
cZxid = 0x100000003
ctime = Wed Aug 29 00:03:23 CST 2018
mZxid = 0x100000011
mtime = Wed Aug 29 00:21:23 CST 2018
pZxid = 0x100000014
cversion = 9
dataVersion = 1
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 4
numChildren = 1

3.2 API应用

  1. 创建zookeeper客户端
    private static String connect = "node01:2181, node02:2181,node03:2181";
    private static int sessionTimeOut = 2000;
    private ZooKeeper zkClient = null;

    // 创建zk客户端
    @Before
    public void init() throws IOException {
        zkClient = new ZooKeeper(connect, sessionTimeOut, new Watcher() {
            public void process(WatchedEvent event) {
                // 监听发生后所要触发的事件
                // 收到事件通知后的回调函数(用户的业务逻辑)
                System.out.println(event.getType()+"--"+ event.getPath());
            }
        });
    }
  1. 创建子节点
    // 创建子节点
    @Test
    public void create() throws Exception {
        /*
        * 参数1:要创建的节点的路径
        * 参数2:节点数据
        * 参数3:节点权限
        * 参数4:节点的类型
        * */
        zkClient.create("/test", "yanlz".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
    }
  1. 获取子节点并监听节点变化
    // 获取子节点并监听节点变化
    @Test
    public void getChildren() throws Exception {
        List<String> children = zkClient.getChildren("/", true);
        for (String child : children) {
            System.out.println(child);
        }
    }
  1. 判断znode是否存在
    // 判断Znode是否存在
    @Test
    public void exist() throws Exception {
        Stat stat = zkClient.exists("/idea", false);
        System.out.println(stat == null ? "not exist" : "exist");
    }

3.3 监听服务器节点动态上下线案例

  1. 需求
    某分布式系统中,主节点可以有多台,可以动态上下线,任意一台客户端都能实时感知到主节点服务器的上下线。
  2. 需求分析
    在这里插入图片描述
  3. 具体实现

(0) 先在集群上创建/servers节点

[zk: localhost:2181(CONNECTED) 10] create /servers "servers"
Created /servers

(1) 服务器向zk注册

public class DistributeServer {
    private static String connect = "node01:2181,node02:2181,node03:2181";
    private static int sessiontTimeOut = 2000;
    private ZooKeeper zk = null;
    private String parentNode = "/servers";

    // 创建到zk的客户端连接
    public void getConnect() throws Exception {
        zk = new ZooKeeper(connect, sessiontTimeOut, new Watcher() {
            public void process(WatchedEvent event) {

            }
        });
    }

    // 向zk注册服务器
    public void registServer(String hostname) throws Exception {
        String registed = zk.create(parentNode + "/server", hostname.getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL);
        System.out.println(hostname + "is online" + registed);
    }

    // 服务器的业务功能
    public void business(String hostname) throws Exception {
        System.out.println(hostname + "is working");
        Thread.sleep(Long.MAX_VALUE);
    }

    public static void main(String[] args) throws Exception {
        // 1. 获取zk连接
        DistributeServer server = new DistributeServer();
        server.getConnect();

        // 2. 利用zk连接注册服务器信息
        server.registServer(args[0]);

        // 3. 启动业务功能
        server.business(args[0]);
    }
}

(2) 客户端代码

public class DistributeClient {

    private static String connect = "node01:2181,node02:2181,node03:2181";
    private static int sessiontTimeOut = 2000;
    private ZooKeeper zk = null;
    private String parentNode = "/servers";

    // 创建到zk的客户端连接
    public void getConnect() throws Exception {
        zk = new ZooKeeper(connect, sessiontTimeOut, new Watcher() {
            public void process(WatchedEvent event) {
                System.out.println("listener server");
                // 再次启动监听
                try {
                    getServerList();
                } catch (Exception e) {
                    e.printStackTrace();
                }
            }
        });
    }

    // 获取服务器列表信息
    public void getServerList() throws Exception {
        // 1. 获取服务器子节点信息, 并且对父节点进行监听
        List<String> children = zk.getChildren(parentNode, true);
        // 2. 存储服务器信息列表
        ArrayList<String> servers = new ArrayList<String>();
        // 3. 遍历所有节点, 获取节点中的主机名称信息
        for (String child : children) {
            byte[] data = zk.getData(parentNode + "/" + child, false, null);
            servers.add(data.toString());
        }
        // 4. 打印服务器列表信息
        System.out.println(servers);
    }

    // 业务功能
    public void business() throws InterruptedException {
        System.out.println("client is working");
        Thread.sleep(Long.MAX_VALUE);
    }

    public static void main(String[] args) throws Exception {
        // 1. 获取zk连接
        DistributeClient client = new DistributeClient();
        client.getConnect();
        // 2. 获取servers的子节点信息, 从中获取服务器列表信息
        client.getServerList();
        // 3. 业务进程启动
        client.business();
    }
}

第四章 Zookeeper内部原理

4.1 节点类型

4.2 stat结构体

4.3 监听器原理

在这里插入图片描述

  1. 监听器原理详解

(1) 首先要有一个Main线程
(2) 在main线程中创建zookeeper客户端, 这是就会创建两个线程, 一个负责网络连接通信(connect), 一个负责监听(listener)
(3) 通过connect线程将注册的监听事件发送给zookeeper
(4) 在zookeeper的注册监听器列表中将注册的监听事件添加到列表中
(5) zookeeper监听到有数据或路径的变化, 就会将这个消息发送给listener线程
(6) listener线程内部调用process()方法

  1. 常见的监听

(1) 监听节点数据的变化
get path [watch]
(2) 监听子节点增减的变化
ls path [watch]

4.4 Paxos算法

4.5 选举机制

  1. 半数机制
    集群中半数以上机器存活,集群可用。所以Zookeeper适合安装奇数台服务器
  2. Zookeeper虽然在配置文件中并没有指定Master和Slave。但是,Zookeeper工作时,是有一个节点为Leader,其他则为Follower,Leader是通过内部的选举机制临时产生的。
  1. 以一个简单的例子来说明整个选举的过程。
    假设有五台服务器组成的Zookeeper集群,它们的id从1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是一样的。假设这些服务器依序启动,来看看会发生什么,

在这里插入图片描述

  1. 服务器1启动,发起一次选举。服务器1投自己一票。此时服务器1票数一票,不够半数以上(3票),选举无法完成,服务器1状态保持为LOOKING
  2. 服务器2启动,再发起一次选举。服务器1和2分别投自己一票并交换选票信息:此时服务器1发现服务器2的ID比自己目前投票推举的(服务器1)大,更改选票为推举服务器2。此时服务器1票数0票,服务器2票数2票,没有半数以上结果,选举无法完成,服务器1,2状态保持LOOKING
  3. 服务器3启动,发起一次选举。此时服务器1和2都会更改选票为服务器3。此次投票结果:服务器1为0票,服务器2为0票,服务器3为3票。此时服务器3的票数已经超过半数,服务器3当选Leader。服务器1,2更改状态为FOLLOWING,服务器3更改状态为LEADING
  4. 服务器4启动,发起一次选举。此时服务器1,2,3已经不是LOOKING状态,不会更改选票信息。交换选票信息结果:服务器3为3票,服务器4为1票。此时服务器4服从多数,更改选票信息为服务器3,并更改状态为FOLLOWING;
  5. 服务器5启动,同4一样当小弟。

4.6 写数据流:

发布了43 篇原创文章 · 获赞 0 · 访问量 556

猜你喜欢

转载自blog.csdn.net/qq_35199832/article/details/103393042
今日推荐