Hadoop集群搭建问题总结

1、

问题描述:hadoop集群启动时,datanode进程启动不了

原因分析:namenode和datanode下VERSION文件中的clusterID不一致,导致datanode启动不了

解决方法:进入hadoop的配置目录hadoop-2.7.1/etc/hadoop,进入hdfs-site.xml配置文件,找到namenode和datanode的配置空间

<!--配置namenode数据存放的位置,可以不配置,如果不配置,默认用的是core-site.xml里配置的hadoop.tmp.dir的路径-->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///root/work/hadoop-2.7.1/tmp/namenode</value>
</property>
<!--配置datanode数据存放的位置,可以不配置,如果不配置,默认用的是core-site.xml里配置的hadoop.tmp.dir的路径-->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///root/work/hadoop-2.7.1/tmp/datanode</value>
</property>

 进入/root/work/hadoop-2.7.1/tmp/目录,分别进入amenode/current和datanode/current目录,编辑VERSION文件,复制namenode的clusterID,覆盖掉datanode的clusterID,然后再次启动datanode,即可启动成功!

 

后续持续更新中。。。。。。

猜你喜欢

转载自blog.csdn.net/Johnson8702/article/details/81975575
今日推荐