hadoop日常问题记录(1)

今天在操作HDFS的时候,碰到如下问题:

Hadoop问题截图

HDFS采用的异构的方式,新增服务器的磁盘数量和大小与原集群中的磁盘数量和大小是不一样的,一般在集群扩展的过程中都会出现这个问题,不过Hadoop支持这种异构的方式,回去查看问题原因的时候,发现是在配置文件中挂载磁盘的目录最后一个没有分清楚, and .的区别,直接启动导致的HDFS中的VERSION文件中的datanodeUuid不一致造成的,这个文件在数据目录下面的current目录下,然后在集群的有问题的节点中手动修改UUID的值,使用deamon命令重新启动节点,节点恢复正常。

回顾解决整个问题的过程,先要查看日志,日志中的warning要比error更有用,例如上。

猜你喜欢

转载自blog.csdn.net/wangxiaotongfan/article/details/81174109