从0开始部署hadoop HA集群,使用zk实现自动容灾

1.停掉所有hadoop进程

2删除所有节点的日志和本地数据
$xcall.sh "rm -rf /soft/hadoop/logs/"//这个操作实现删除所有节点的数据
$xcall.sh "rm -rf /home/centos/hadoop/
"

3.改换hadoop的符号连接为ha

4.登录每台JN节点主机,启动JN(journalNode)节点
[s201-s203
$>hadoop-daemon.sh start journalnode;

5.登录其中一个NN节点,格式化文件系统(s200)
$>hadoop namenode -format

6.复制s200目录下面nn的元数据到s206
$>scp -r ~/hadoop/* centos@s206:/home/centos/hadoop

7.在未格式化的NN(s206)节点上做standby引导
7.1)需要保证201的NN节点启动
$>hadoop-daemon.sh start namenode
7.2)登录s206上做节点引导
$>hdfs namenode -bootstrapStandby

7.3登录到s200将s200的edit日志初始化到JN节点
$>hdfs namenode -initializeSharedEdits

8.启动s206的名称节点和数据节点
$>hadoop-daemons.sh start datanode;
登录到s206启动namenode
$>hadoop-daemon.sh start namenode
9.查看webUI

猜你喜欢

转载自www.cnblogs.com/stone-learning/p/9291233.html