hadoop\zookeeper\hbase集群重启后出现的相关问题

1、在集群上的主节点/usr/local/hadoop/bin目录下,执行./start-dfs.sh命令后,只有主节点下的namenode进行启动,分支节点中的datanode没有正常启动

解决方式:

1)删除hadoop目录中的tmp目录文件及log目录文件(集群中所有节点)

2)在bin目录中重新格式化hadoop namenode -format

3)重新启动hdfs及yarn进程

执行./start-all.sh即可

2、启动zookeeper失败,如下所示:

解决方式:

1)删除data目录下的version-2文件夹及,datalog目录下的所有文件

dataDir=/usr/local/zookeeper/data
dataLogDir=/usr/local/zookeeper/datalog

2)重新启动即可

3、启动hbase后,分支节点没有正常启动

解决方式:

1)查看集群内所有系统时间是否一致,确保系统时间都一致,重新启动;

2)若第一种方式还不能解决问题的话,修改hbase-site.xml配置文件的连接时间,增加连接时长

            <property>
                 <name>hbase.master.maxclockskew</name>
                 <value>150000</value>
            </property>

3)若以上的方法还是不能解决问题的话,查看/etc/hosts文件夹中,是否已经删除127.0.0.1 主机名,

若没有删除的话,都删除。如下所示,删除下列两行

127.0.0.1     localhost localhost.localdomain localhosts4.localdomain4
::1 localhost localhost.localhost.localdomain localhost6 localhost6.localdomain6

猜你喜欢

转载自blog.csdn.net/xuexi_39/article/details/82885636
今日推荐