Spark错误:Operation category READ is not supported in state standby解决办法

转载:https://blog.csdn.net/ZHAOLEI5911/article/details/51493637



参考的文章:http://www.cnblogs.com/smartloli/p/4298430.html
当然,在操作的过程中,发现与上述文章中描述的还是有一些小小的区别。
配置好后,start-dfs.sh start-yarn.sh之后,相关的进程,会自动被启动。包括
namenode两个进程,zkfc,journal 等,不需要自己手动启动。
但是standby的namenode的resourcemanager进程没有自动启动。
我遇到的问题:
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category READ is not supported in state standby
通过http://namenode:50070/dfshealth.html#tab-overview
http://datanode01:50070/dfshealth.html#tab-overview
发现这两个namenode都是Standby.
经过搜索,有人也遇到这个问题,解决的方案是:
Zkcli.sh
ls /
rmr /hadoop-ha
重新hdfs zkfc –formatZK
然后就可以使用了。
测试高可用的话,可以kill –9 pid(active namenode 的pid)
然后就会发现原来Standby的namenode已经成为active状态了。
HADOOP namenode HA
标签:logcom使用httpithtml问题haGo
原文:http://www.cnblogs.com/huaxiaoyao/p/4615060.html



参考的文章:http://www.cnblogs.com/smartloli/p/4298430.html
当然,在操作的过程中,发现与上述文章中描述的还是有一些小小的区别。
配置好后,start-dfs.sh start-yarn.sh之后,相关的进程,会自动被启动。包括
namenode两个进程,zkfc,journal 等,不需要自己手动启动。
但是standby的namenode的resourcemanager进程没有自动启动。
我遇到的问题:
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category READ is not supported in state standby
通过http://namenode:50070/dfshealth.html#tab-overview
http://datanode01:50070/dfshealth.html#tab-overview
发现这两个namenode都是Standby.
经过搜索,有人也遇到这个问题,解决的方案是:
Zkcli.sh
ls /
rmr /hadoop-ha
重新hdfs zkfc –formatZK
然后就可以使用了。
测试高可用的话,可以kill –9 pid(active namenode 的pid)
然后就会发现原来Standby的namenode已经成为active状态了。
HADOOP namenode HA
标签:logcom使用httpithtml问题haGo
原文:http://www.cnblogs.com/huaxiaoyao/p/4615060.html

猜你喜欢

转载自blog.csdn.net/sinat_36121406/article/details/82495944