搭建Zookeeper集群模式

是在搭建HA_hadoop(高可用)集群的基础上进行的

1、下载zookeeper3.4.6   ------点击超链接

2、上传到集群

3、然后解压

$ tar -zxvf zookeeper-3.4.6.tar.gz

4、创建软连接

$ ln -s /home/betty/soft/zookeeper-3.4.6 /home/betty/soft/zoo

5、将解压后的zookeeper发送给其他机器

$ scp -r /home/betty/soft/zookeeper-3.4.6 betty@dog2:/home/betty/soft/

$ scp -r /home/betty/soft/zookeeper-3.4.6 betty@dog3:/home/betty/soft/

6、 配置环境变量

扫描二维码关注公众号,回复: 4326402 查看本文章

$ vi ~/.bashrc

【JAVA_HOME=/home/betty/soft/jdk
HADOOP_HOME=/home/betty/soft/hadoop
ZOOKEEPER_HOME=/home/betty/soft/zoo
PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin
export JAVA_HOME PATH

7、将配置环境变量之后的.bashrc文件发送给其他机器。

$ scp ~/.bashrc betty@dog2:~/.bashrc

$ scp ~/.bashrc betty@dog3:~/.bashrc

并且使环境变量生效------------每台机器都要执行

$ source ~/.bashrc

8、配置zoo.cfg

在/home/betty/soft/zoo/conf目录下

$ cp zoo_sample.cfg zoo.cfg

修改zoo.cfg文件

$ vi /home/betty/soft/zoo/conf/zoo.cfg

配置内容为:

        tickTime=2000
        dataDir=/home/hyxy/soft/tmp/zookeeper
        clientPort=2181
        initLimit=5
        syncLimit=2
        server.1=master:2888:3888
        server.2=slave1:2888:3888
        server.3=slave2:2888:3888 

9、 发送给另外两台机器。

$ scp zoo.cfg betty@dog2/home/betty/soft/zoo/conf/zoo.cfg

$ scp zoo.cfg betty@dog3:/home/betty/soft/zoo/conf/zoo.cfg

10、每台机器运行一次

$ zkServer.sh start

11、 在dataDir=/home/betty/soft/tmp/zookeeper下执行------三台机器都需要执行。

====>dog1     $ echo "1" >> myid   -------  注意1是配置文件中给的id   server.1=dog1:2888:3888

====>dog2     $ echo "2" >> myid

====>dog3     $ echo "3" >> myid

12、再次在每台机器上运行

$ zkServer.sh start

并且验证是否可用

$ zkCli.sh

13、复制一份HA配置文件做自动容灾(etc/hadoop) ----------所有机器都需要执行下面操作。

$ cp -r HA_hadoop auto_hadoop

$ rm hadoop --------------删除软连接。

$ ln -s auto_hadoop hadoop --------------重新创建指向auto_hadoop的软连接。

14、修改配置文件。

hdfs-site.xml

<property>
       <name>dfs.ha.automatic-failover.enabled</name>
       <value>true</value>
     </property>

$ vim /home/betty/soft/hadoop/etc/hadoop/hdfs-site.xml

 core-site.xml

 <property>
       <name>ha.zookeeper.quorum</name>
       <value>dog1:2181,dgo2:2181,dog3:2181</value>
     </property>

$ vim /home/betty/soft/hadoop/etc/hadoop/core-site.xml  

15、 发送给其他机器

$ scp hdfs-site.xml betty@dog2:/home/betty/soft/hadoop/etc/hadoop/hdfs-site.xml

$ scp hdfs-site.xml betty@dog3:/home/betty/soft/hadoop/etc/hadoop/hdfs-site.xml

$ scp core-site.xml betty@dog2:/home/betty/soft/hadoop/etc/hadoop/core-site.xml

$ scp core-site.xml betty@dog3:/home/betty/soft/hadoop/etc/hadoop/core-site.xml

16、 在一台namenode所在节点执行如下命令

$ hdfs zkfc -formatZK

17、查看是否全部启动

8240 Jps
7539 QuorumPeerMain
8164 DFSZKFailoverController
7974 JournalNode
7788 DataNode
7678 NameNode
】 

18、查看50070端口,杀死其中活跃的节点,查看备用节点是否转为活跃

猜你喜欢

转载自blog.csdn.net/Betty_betty_betty/article/details/84203836