1:搭建hadoop集群
https://blog.csdn.net/lucklilili/article/details/84347523
2:搭建Zookeeper集群
https://blog.csdn.net/lucklilili/article/details/88226970
3:搭建hadoop HA集群
集群规划:
hadoop01 namenode resourcemanager zkfc nodemanager datanode zookeeper journal node
hadoop02 namenode resourcemanager zkfc nodemanager datanode zookeeper journal node
hadoop03 datanode nodemanager zookeeper journal node
4:配置
配置文件下载地址 https://pan.baidu.com/s/1rvn8gzRdnPEpsVgzULp23w 提取码:dwmn
hdfs的HA:
core-site.xml
hdfs-site.xml
yarn的HA:
yarn-site.xml
5:分发配置好的文件
scp core-site.xml hdfs-site.xml yarn-site.xml root@hadoop02:$PWD
scp core-site.xml hdfs-site.xml yarn-site.xml root@hadoop03:$PWD
6:启动过程:
1、启动zookeeper
bin/zkServer.sh start
2、配置三台服务器免密
//在master机下生成公钥/私钥对。
# ssh-keygen -t rsa
//追加到key文件当中
# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
//将master机子上的key给其他机子上发送一份
# scp ~/.ssh/authorized_keys slave1:/root/.ssh/
# scp ~/.ssh/authorized_keys slave2:/root/.ssh/
3、启动 journalnode:
hadoop-daemon.sh start journalnode
三台服务器都要执行启动命令
4、初始化 namenode
hdfs namenode -format
在namenode服务器执行就行 hadoop01
5、启动namenode
hadoop-daemon.sh start namenode
在namenode服务器上启动就行 hadoop01
6、copy元数据到standby namenode
hdfs namenode -bootstrapStandby
在子namenode上执行 hadoop02
7、格式化ZKFC:
hdfs zkfc -formatZK
(在active的namnode上执行 hadoop01)
8、启动器群(集群第一次初始化完成后 以后就启动一下即可)
启动dfs集群:
start-dfs.sh
启动yarn集群:
start-yarn.sh (两台都需要执行 hadoop01 hadoop02)