zookeeper简介及其搭建

版权声明:本文为博主原创文章,欢迎转载,转载请注明出处。 https://blog.csdn.net/u012802702/article/details/51549091

zookeeper简介:

zookeeper即分布式数据同步服务,具有 数据同步,分布式锁等等功能,
Zookeeper集群必须是奇数台,故要保证可靠性至少要三台。理论上至少要保证一半以上的机器运行即可。分leader和Follower。leader只有一个。Follower可以有多个,当leader宕掉后,会在在其余Follower中选举一个作为leader。
数据同步是指:每台Cilent 机器都连接一个Follower或leader。当Cilent上数据被修改后,其连接的Follower或leader上的Server会首先接收到,而leader会随时检测所有与的Follower上的Server如果有数据变化就将数据同步到其他Follower上,
hadoop2.0中使用zookeeper确保整个NameService中只有一个活跃的NameNode(会有多个代用的NameNode但处于代用状态),当一个nameNode 当掉或会启用其他的备用的NameNode。此外在Hbase集群中也会使用zookeeper来保证Hbase集群中只有一个HMaster,同时通过zookeeper将Hbase客户端、RegionServer、Master三者联系在一起。

zookeeper的安装:

第一步:修改配置文件zoo.cfg
mkdir /buaa/zookeeper-3.4.5/data创建目录 /buaa/zookeeper-3.4.5/data 。并修改zoo.cfg配置文件将dataDir指向该目录:

dataDir里还存储了日志信息,故dataDir不能存放在命名为tmp的文件里
同时在文件末尾添加内容:设置如下:

其中端口2888是用于进行leader选举的端口,3888是zookeeper集群中各个机器间的通讯接口。

第二步:创建文件myid

进入到创建的 /buaa/zookeeper-3.4.5/data 目录下创建一个文件,文件名为 myid ,并添加上面对应的server的id号,例如hadoop01节点对应的servere编号为 1 ,故 myid 文件中只需要输入一个1即可;其他节点如hadoop02节点中的myid文件中的内容为 2 。hadoop03节点中的myid文件为内容为 3 .

第三步:使用scp命令将配置好的zookeeper拷贝到其他机器。并修改相应的data目录下的myid文件中的id值


第四步:测试

依次启动三个机器上的zookeeper服务: ./zkServer.sh start
依次在每台机器上查看当前zookeeper的状态: ./zkServer.sh status
其中会有一台机器上启动的为leader两个机器上启动的是Follower.其实只要启动两台机器即可组成一个集群,集群要保证可靠性至少要三台zookeeper。理论上至少要保证一半以上的机器运行即可,所以两台就可以组成zookeeper集群。这里我们开启三台。
在一个节点上(如hadoop01)启动客户端进程并创建一个文件,之后在其它两个节点上查看数据是否同步:
[root@hadoop01 bin]# ./zkCli.sh 在hadoop01中启动客户端进程会自动连接到本地
查看器根目录,在根目录下创建一个文件/hadoop123,内容为123

之后再在hadoop02节点上启动客户端进程:并查看根目录,是否已经同步:下图显示已经同步成功


zookeeper与HDFS

在2.0之前HDFS中只有一个NameNode,但对于在线的应用只有一个NameNode是不安全的,故在2.0中对NameNode进行抽象,抽象成NamService其下包含有多个NameNode,但只有一个运行在活跃状态,因此需要zookeeper进项选举和自动转换。一旦active当掉之后zookeeper会自定进行切换将standby切换为active。

扫描二维码关注公众号,回复: 4997137 查看本文章

图片来源: HDFS-1623 设计文档

图片作者: Sanjay Radia, Suresh Srinivas

如上图,每一个运行NameNode的机器上都会运行一个FailoverController Active进程,用于监控NameNode,即FailoverController与NameNode 二者是运行在同一台节点上的。
1】、如上,系统中Active NameNode一旦数据发生变化,Active NameNode会将变化(edits文件)写入到介质中,通常介质使用:
       1、NFS网络文件系统;
2、依赖于zookeeper的JournalNode,当机器不是很多时可以使用JournalNode存储edits,
而一旦介质中数据发生变化,Standby的NameNode会实时同步介质中的数据,因此ActiveNameNode与处于Standby的NameNode是实时数据同步的,
2】、FailoverController Active进程会实时监控Active的NameNode并把他的信息汇报给zookeeper( 由此不难理解为什么要将FailoverController与NameNode 安装在同一个节点上了吧,因为FailoverController需要实时的监控NameNode将二者放在同一个节点上),若active NameNode没有发生故障,FailoverController Active进程会每隔一段时间将监控Actice NameNode的状态,并将Active NameNode的信息发送给zookeeper。若一旦监控到Active NameNode出现问题,就会将信息汇报给zookeeper,而另一个Standby FailoverController进程与active FailoverController进程是数据同步的(通过zookeeper实现)因此,Standby FailoverController进程会同时知道Active NameNode当掉了,此时会给它监控的Standby NameNode节点发送信息,使其成为Active NameNode。

zookeeper与Hbase

Client客户端、Master、Region都会通过心跳机制(RPC通信)与zookeeper保持联系。
当在Hbase中插入或读取数据时流程如下;
1、在Client中写一个Java类运行,客户端只需要连接zookeeper, 客户端会从zookeeper中得到Regionserver的映射信息,之后客户端会直接连接到Region Server,
2、RegionServer在启动之后会向zookeeper汇报信息 (通过心跳RPC) :本身有多少Region,有哪些数据,当前机器的运行状况等等。
3、 master 启动后也会向zookeeper汇报信息,并且从zookeeper中得到Region Server的一些信息。例如当一台Region Server当掉之后,zookeeper会得知,之后Master也会通过zookeeper得到该Region Server当掉的信息。
4、 当客户端Client在做DDL(创建,修改,删除表)时,会通过zookeeper获取到Master的地址,而Master中保存了表的元数据信息,之后Client就可以直接与Master进行通信,进行表的DDL操作
5、 当Region中数据不断增大,MAster会向Region Serve发送指令,讲分割出来的Region进行转移,


Zookeeper:
1】保证任何时候,集群中只有一个活跃的master,因为为保证安全性会启动多个Master
2】存储所有Region的寻址入口。知道那个Region在哪台机器上。
3】实时监控Region Server的状态,将Region Server的上下线的信息汇报给HMaster。(因为每间隔一段时间,RegionServer与Master都会zookeeper发送心跳信息),Region Server不直接向Master发送信息的原因是为了减少Master的压力因为只有一个活跃的Master,所有的RegionServer同时向他汇报信息,压力太大。而若有100台RegionServer时,Region Server可以分每10台向一个zookeeper汇报信息,实现zookeeper的负载均衡。
4】存储Hbase的元数据(Schema)包括,知道整个Hbase集群中有哪些Table,每个 Table 有哪些column family(列族)

Client
Client包含了访问Hbase的接口,Client维护这些Cache来加快对Hbase的访问,比如Region的位置信息,zookeeper,zookeeper保证了任何时候急群众只有一个Master存储所有的Region中的寻址入口还有实时监控RegionServer上的状态,将RegionServer的上线和下线信息实时通知给Master,存储hbase 的Schema,包括有哪些table,每个Table有哪些Column Family

Master
Master有以下特点:
1、为RegionServer分配Region
2、负责RegionServer的负载均衡    
3、发现失效的RegionServer并重新分配其上的Region
4、HDFS上的垃圾文件回收
5、处理Schema更新请求

RegionServer有以下几点:
1、RegionServer维护Master分配给他的 Region,处理对这些Region的IO请求
2、RegionServer负责切分在运行过程中变得过大的Region,

因此可看出,Client访问Hbase上的数据的过程并不需要Master的参与(寻址访问zookeeper和Region Serve,写数据访问Region Server)Master仅仅维护着table和Region的元数据信息。负载很低。

猜你喜欢

转载自blog.csdn.net/u012802702/article/details/51549091
今日推荐