1、
问题描述:hadoop集群启动时,datanode进程启动不了
原因分析:namenode和datanode下VERSION文件中的clusterID不一致,导致datanode启动不了
解决方法:进入hadoop的配置目录hadoop-2.7.1/etc/hadoop,进入hdfs-site.xml配置文件,找到namenode和datanode的配置空间
<!--配置namenode数据存放的位置,可以不配置,如果不配置,默认用的是core-site.xml里配置的hadoop.tmp.dir的路径-->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///root/work/hadoop-2.7.1/tmp/namenode</value>
</property>
<!--配置datanode数据存放的位置,可以不配置,如果不配置,默认用的是core-site.xml里配置的hadoop.tmp.dir的路径-->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///root/work/hadoop-2.7.1/tmp/datanode</value>
</property>
进入/root/work/hadoop-2.7.1/tmp/目录,分别进入amenode/current和datanode/current目录,编辑VERSION文件,复制namenode的clusterID,覆盖掉datanode的clusterID,然后再次启动datanode,即可启动成功!
后续持续更新中。。。。。。