05:Hadoop HA集群搭建

1:搭建hadoop集群

     https://blog.csdn.net/lucklilili/article/details/84347523

2:搭建Zookeeper集群

     https://blog.csdn.net/lucklilili/article/details/88226970

3:搭建hadoop HA集群

    集群规划:
    hadoop01   namenode    resourcemanager  zkfc   nodemanager datanode   zookeeper   journal node
    hadoop02   namenode    resourcemanager  zkfc   nodemanager  datanode   zookeeper   journal node
    hadoop03   datanode    nodemanager     zookeeper    journal node

4:配置

  配置文件下载地址 https://pan.baidu.com/s/1rvn8gzRdnPEpsVgzULp23w   提取码:dwmn 

   hdfs的HA:

     core-site.xml
     hdfs-site.xml

  yarn的HA:
     yarn-site.xml

5:分发配置好的文件

scp core-site.xml hdfs-site.xml yarn-site.xml root@hadoop02:$PWD

scp core-site.xml hdfs-site.xml yarn-site.xml root@hadoop03:$PWD

6:启动过程:
     1、启动zookeeper  

           bin/zkServer.sh start

     2、配置三台服务器免密

//在master机下生成公钥/私钥对。
# ssh-keygen -t rsa
//追加到key文件当中
# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
//将master机子上的key给其他机子上发送一份
# scp ~/.ssh/authorized_keys slave1:/root/.ssh/
# scp ~/.ssh/authorized_keys slave2:/root/.ssh/

       3、启动  journalnode:

hadoop-daemon.sh start journalnode   

三台服务器都要执行启动命令

       4、初始化  namenode

hdfs namenode -format

在namenode服务器执行就行  hadoop01

      5、启动namenode

hadoop-daemon.sh start namenode

在namenode服务器上启动就行   hadoop01

       6、copy元数据到standby namenode

hdfs namenode -bootstrapStandby

在子namenode上执行 hadoop02

      7、格式化ZKFC:

hdfs zkfc -formatZK

(在active的namnode上执行  hadoop01)

      8、启动器群(集群第一次初始化完成后 以后就启动一下即可)

        

启动dfs集群:
start-dfs.sh

启动yarn集群:
start-yarn.sh  (两台都需要执行 hadoop01 hadoop02)

猜你喜欢

转载自blog.csdn.net/lucklilili/article/details/88538587