Hadoop文件损坏解决办法

问题原因:在hdfs-site中配置的副本书为1,而且把两台机子的文件给清理了,导致一部分数据丢失,而且无法恢复,报错导致hbase无法访问60010端口

解决办法:使用 hadoop fsck / 列出损坏文件,损坏的文件无法恢复,只能删除损坏的文件  hadoop fsck -delete

--------------------------------------分割线 --------------------------------------

猜你喜欢

转载自www.linuxidc.com/Linux/2015-04/116176.htm