hdfs HA 实验

hdfs   HA  实验

hdfs 第一次

机器准备 ,机器配合 hostname,ip       作为namenode 的机器 到其他的机器要有 ssh 权限

1、 start zk cluster
主 :   
  2、 ./hdfs journalnode  这个会启动所有配置的 journalnode ,执行机 要有到 其他 机器的 ssh 的权限      用于存放 namenode 的 内容
3、hdfs zkfc -formatZK  
4、hdfs namenode -format
主  start main namenode  server
5、 sbin/hadoop-daemon.sh start namenode

        6、hdfs namenode -bootstrapStandby
7、sbin/hadoop-daemon.sh start namenode 
  8、sbin/hadoop-daemons.sh start zkfc 
这个是决定  哪个是 active的程序
9、sbin/hadoop-daemons.sh start datanode 
如果 namenode format 过 要把所有datanode 上的  文件删干净。 要不然启动会报错。




以后  的起停      start-dfs.sh   stop -dfs.sh



测试过程发,kill  active namenode  ,standby 上 sshfence 有权限问题,发现是  linux fuser 没有装。

yum install psmisc





Hbase HA  多起一个 mastr 就OK















猜你喜欢

转载自lingzhi007.iteye.com/blog/2335625