zookeeper简介及集群搭建步骤

1zookeeper概念

  • zookeeper是一个分布式协调服务
  • zookeeper是为别的分布式程序服务的
  • zookeeper本身就是一个分布式程序(只要半数以上节点存活,zookeeper就能正常服务。)
  • zookeeper的服务范围:主从协调、服务器节点动态上下线、统一配置管理、分布式共享锁、统一名称服务……
  • zookeeper底层其实只提供了两个功能:

     a.管理(存储、读取)用户程序提交的数据

     b.为用户程序提交数据节点监听服务

 

2zookeeper集群机制

   半数机制:zookeeper集群适合搭建在奇数台机器上, 集群中半数以上机器存活,集群可用。

3zookeeper特性

  • Zookeeper:一个leader,多个follower组成的集群
  • 全局数据一致:每个server保存一份相同的数据副本,client无论连接到哪个server,数据都是一致的
  • 分布式读写,更新请求转发,由leader实施
  • 更新请求顺序进行,来自同一个client的更新请求按其发送顺序依次执行
  • 数据更新原子性,一次数据更新要么成功,要么失败
  • 实时性,在一定时间范围内,client能读到最新数据

4zookeeper数据结构

  • 层次化的目录结构,命名符合常规文件系统规范(见下图)
  • 每个节点在zookeeper中叫做Znode,并且其有一个唯一的路径标识
  • 节点Znode可以包含数据和子节点(但是EPHEMERAL类型的节点不能有子节点)
  • 客户端应用可以在节点上设置监视器

https://images2015.cnblogs.com/blog/1110462/201704/1110462-20170417160958181-1079670871.png

 

  •  节点类型:

      1Znode有两种类型:

        短暂(ephemeral)(断开连接自己删除)

        持久(persistent)(断开连接不删除)

      2、Znode有四种形式的目录节点(默认是persistent )

        PERSISTENT

        PERSISTENT_SEQUENTIAL(持久序列/test0000000019 

        EPHEMERAL

        EPHEMERAL_SEQUENTIAL

      3、创建znode时设置顺序标识,znode名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护

      4、在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序

 

5zookeeper原理及内部选举机制

 原理:zookeeper在配置文件中并没有指定masterslave,但是,zookeeper在工作时,只有一个节点为leader,其余节点为followerleader是通过内部的选举机制临时产生的。

 选举机制:(两种情况)

1)全新集群paxos

        假设有五台服务器组成的zookeeper集群,它们的id1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是一样的.假设这些服务器依序启动,来看看会发生什么.
  1) 服务器1启动,此时只有它一台服务器启动了,它发出去的报没有任何响应,所以它的选举状态一直是LOOKING状态
  2) 服务器2启动,它与最开始启动的服务器1进行通信,互相交换自己的选举结果,由于两者都没有历史数据,所以id值较大的                  服务器2胜出,但是由于没有达到超过半数以上的服务器都同意选举它(这个例子中的半数以上是3),所以服务器1,2还是继续              保持LOOKING状态.
  3) 服务器3启动,根据前面的理论分析,服务器3成为服务器1,2,3中的老大,而与上面不同的是,此时有三台服务器选举了它,所以             它成为了这次选举的leader.
  4) 服务器4启动,根据前面的分析,理论上服务器4应该是服务器1,2,3,4中最大的,但是由于前面已经有半数以上的服务器选举               了服务器3,所以它只能接收当小弟的命了.
  5) 服务器5启动,4一样,当小弟.

2)非全新集群(数据恢复)

初始化的时候,是按照上述的说明进行选举的,但是当zookeeper运行了一段时间之后,有机器down掉,重新选举时,选举过程就相对复杂了,需要加入数据idleader id和逻辑时钟 

        数据id:数据新的id就大,数据每次更新都会更新id

       Leader id:就是我们配置的myid中的值,每个机器一个。

       逻辑时钟:这个值从0开始递增,每次选举对应一个值,也就是说:  如果在同一次选举中,那么这个值应该是一致的;                                           逻辑时钟 值越大,说明这一次选举leader的进程更新.

选举的标准就变成:

  1、逻辑时钟小的选举结果被忽略,重新投票

    2、统一逻辑时钟后,数据id大的胜出

  3、数据id相同的情况下,leader id大的胜出根据这个规则选出leader

 

6zookeeper集群搭建

   1.准备三台机器,分别安装JDK1.8;

   2.下载zookeeper

     http://zookeeper.apache.org/releases.html

   3. 解压 tar -zxvf /usr/local/zookeeper-3.4.13.tar.gz

    4 .配置zookeeper环境变量

目的:每次启动服务就不需要定位到Zookeeper的bin目录了

           vi /etc/profile

 在最后加上:

        

#zookeeper
export ZK_HOME=/usr/local/zookeeper-3.4.11
export PATH=$ZK_HOME/bin:$PATH  
 

  刷新环境变量:
    source /etc/profile
5 配置zookeeper的配置文件
   进入zookeeper的conf目录,修改配置文件名   
       
       cp zoo_sample.cfg zoo.cfg
   打开:zoo.cfg

     

tickTime=2000
dataDir=/usr/local/zk/data
dataLogDir=/usr/local/zk/dataLog        
clientPort=2181

server.0=192.168.192.128:2888:3888
server.1=192.168.192.129:2888:3888
server.2=192.168.192.130:2888:3888
 

说明:

     server.X=A:B:C

     X-代表服务器编号

     A-代表ip

     BC-代表端口,这个端口用来系统之间通信

 
 
7.根据dataDir进行X的配置

    创建dataDir目录data,并且在data文件夹下面创建一个文件,叫myid,并且在文件里写入server.X对应的X
8.修改防火墙
  [root@localhost zookeeper-3.4.11]# firewall-cmd --zone=public --add-port=2888/tcp --permanent
  success
  [root@localhost zookeeper-3.4.11]# firewall-cmd --zone=public --add-port=3888/tcp --permanent
  success
  [root@localhost zookeeper-3.4.11]# systemctl restart firewalld   

9.启动

  ./zkServer.sh start

10.查看状态

    ./zkServer.sh status

 

另:机器的免密登录与防火墙

 

设置映射文件:

      vi /etc/hosts

             

192.168.192.128 hadoop1
192.168.192.129 hadoop2
192.168.192.130 hadoop3

 

 

设置三个机器的本机免密登录(三台机器配置一样):

      ssh-keygen -t rsa   ---一直回车即可

      cd /root/.ssh/      ---生成了公钥和私钥

      cat id_rsa.pub >> authorized_keys   ---将公钥追加到授权文件中

      more authorized_keys   ---可以查看到里面追加的公钥

      ssh hadoop1

 

配置两两之间的免密登录:

      将hadoop1中的公钥复制到hadoop2中ssh-copy-id -i hadoop2         验证一下:ssh hadoop2 

       将hadoop3中的公钥复制到hadoop2中ssh-copy-id -i hadoop2     验证一下:ssh hadoop2

      这样hadoop2中的授权文件就有三个机器的公钥,再把hadoop2中的授权文件复制给hadoop1和hadoop3

 

      scp /root/.ssh/authorized_keys hadoop1:/root/.ssh/

      cp /root/.ssh/authorized_keys hadoop3:/root/.ssh/

 

 

将三台机器的防火墙关闭掉

    service iptables stop ,

查看防火墙

   service iptables status

 

 

 

猜你喜欢

转载自blog.csdn.net/u011428598/article/details/81669228