Hbase分布式搭建之Zookeeper搭建

版权声明:本文为博主原创文章,转载请标明出处http://blog.csdn.net/leoe_ https://blog.csdn.net/LEoe_/article/details/79564688

zookeeper 安装包:https://download.csdn.net/download/leoe_/10292256


1、解压zooker-3-4-5.tar.gz

解压:# tar -zxf zookeeper-3.4.5.tar.gz
更改名字为zookeeper:# mv zookeeper-3.4.5 u-zookeeper


2、修改zoo.cfg配置文件

在Zookeeper集群环境下只要一半以上的机器正常启动了,那么Zookeeper服务将是可用的。因此,集群上部署Zookeeper最好使用奇数台机器,这样如果有5台机器,只要3台正常工作则服务将正常。

下面我们将对Zookeeper的配置文件的参数进行设置

进入到u-zookeeper的conf目录下将zoo_sample.cfg文件拷贝一份,命名为为:zoo.cfg
进入目录: # cd u-zookeeper/conf
拷贝 :# cp zoo_sample.cfg zoo.cfg

vim zoo.cfg修改内容如下:
配置文件里面的目录需要自己创建
这里写图片描述


3、修改配置文件:# vim /etc/environment
将zookeeper的bin目录加入到PATH中,方便以后直接使用zookeeper命令
这里写图片描述


4、远程复制分发安装文件

接下来将上面的安装文件拷贝到集群中的其他机器上对应的目录下:
这里写图片描述

在master节点/roor/u-zookeeper/data/里面创建myid文件

echo "1" > /roor/u-zookeeper/data/myid

同理拷贝/etc/profile,/etc/environment至slaver1,slaver2中,拷贝完成后修改对 应的机器上的myid。例如修改slaver1中的myid如下:

echo "2" > /roor/u-zookeeper/data/myid
cat  /roor/u-zookeeper/data/myid

结果: 2

Slaver2中的myid如下:

echo "3" > /roor/u-zookeeper/data/myid
cat  /roor/u-zookeeper/data/myid

结果: 3

以上操作完成后,请所有节点服务器重启。


5、启动zookeeper集群
在ZooKeeper集群的每个结点上,执行启动ZooKeeper服务的脚本:zkServer.sh start
如下图所示:
这里写图片描述
其中,QuorumPeerMain是zookeeper进程,启动正常。
如上依次启动了所有机器上的Zookeeper之后可以通过ZooKeeper的脚本来查看启动状态,包括集群中各个结点的角色(或是Leader,或是Follower),如下所示,是在ZooKeeper集群中的每个结点上查询的结果:

这里写图片描述

通过上面状态查询结果可见,slaver1是集群的Leader,其余的两个结点是Follower
另外,可以通过客户端脚本,连接到ZooKeeper集群上。对于客户端来说,ZooKeeper是一个整体(ensemble),连接到ZooKeeper集群实际上感觉在独享整个集群的服务,所以,你可以在任何一个结点上建立到服务集群的连接,例如:

命令:zkCli.sh -server slaver1:2181

这里写图片描述


6、停止zookeeper进程

#  zkServer.sh stop

至此,Zookeeper集群安装完成!

猜你喜欢

转载自blog.csdn.net/LEoe_/article/details/79564688
今日推荐