NameNode故障后的数据恢复

NameNode故障后,可以采用如下两种方法恢复数据。

方法一:将SecondaryNameNode中数据拷贝到NameNode存储数据的目录;
  1. kill -9 NameNode进程
  2. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)
    [ch@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*
  3. 拷贝SecondaryNameNode中数据到原NameNode存储数据目录
    [ch@hadoop102 dfs]$ scp -r ch@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* ./name/
  4. 重新启动NameNode
    [ch@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode
方法二:使用-importCheckpoint选项启动NameNode守护进程,从而将SecondaryNameNode中数据拷贝到NameNode目录中。
  1. 修改hdfs-site.xml中的

    <property>
      <name>dfs.namenode.checkpoint.period</name>
      <value>120</value>
    </property>
    
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>/opt/module/hadoop-2.7.2/data/tmp/dfs/name</value>
    </property>
    
  2. kill -9 NameNode进程

  3. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)
    [ch@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*

  4. 如果SecondaryNameNode不和NameNode在一个主机节点上,需要将SecondaryNameNode存储数据的目录拷贝到NameNode存储数据的平级目录,并删除in_use.lock文件

    [ch@hadoop102 dfs]$ scp -r ch@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary ./

    [ch@hadoop102 namesecondary]$ rm -rf in_use.lock

    [ch@hadoop102 dfs]$ pwd

    /opt/module/hadoop-2.7.2/data/tmp/dfs

    [ch@hadoop102 dfs]$ ls
    data name namesecondary

  5. 导入检查点数据(等待一会ctrl+c结束掉)
    [ch@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -importCheckpoint

  6. 启动NameNode
    [ch@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode

发布了20 篇原创文章 · 获赞 22 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/weixin_43988989/article/details/104542033