Hadoop学习之SecondaryNameNode、NameNode恢复

摘自:http://5276605.blog.51cto.com/5266605/1423288

摘自:http://www.cnblogs.com/ggjucheng/archive/2012/04/18/2454693.html

在启动Hadoop时,NameNode节点上会默认启动一个SecondaryNameNode进程,使用JSP命令可以查看到。SecondaryNameNode光从字面上理解,很容易让人认为是NameNode的热备进程。其实不是,SecondaryNameNode是HDFS架构中的一个组成部分。它并不是元数据节点出现问题时的备用节点,它和元数据节点负责不同的事情。

 

1、SecondaryNameNode节点的用途:

简单的说,SecondaryNameNode节点的主要功能是周期性将元数据节点的命名空间镜像文件和修改日志进行合并,以防日志文件过大。

 

 

要理解SecondaryNameNode的功能,首先我们先来了解下NameNode的主要工作:

2、NameNode节点的主要工作:

扫描二维码关注公众号,回复: 614176 查看本文章

NameNode的主要功能之一是用来管理文件系统的命名空间,其将所有的文件和文件目录的元数据保存在一个文件系统树中。为了保证交互速度,NameNode会在内存中保存这些元数据信息,但同时也会将这些信息保存到硬盘上进行持久化存储,通常会被保存成以下文件:命名空间镜像文件(fsimage)和修改日志文件(edits)。下图是NameNode节点上的文件目录结构:

wKiom1OSfhvSkAAcAAAnqIht8bE706.jpg

fsimage文件,也即命名空间映像文件,是内存中的元数据在硬盘上的checkpoint,它是一种序列化的格式,并不能够在硬盘上直接修改。

有了这两个文件后,Hadoop在重启时就可以根据这两个文件来进行状态恢复,fsimage相当于一个checkpoint,所以当Hadoop重启时需要两个文件:fsimage+edits,首先将最新的checkpoint的元数据信息从fsimage中加载到内存,然后逐一执行edits修改日志文件中的操作以恢复到重启之前的最终状态。

Hadoop的持久化过程是将上一次checkpoint以后最近一段时间的操作保存到修改日志文件edits中。

 

这里出现的一个问题是edits会随着时间增加而越来越大,导致以后重启时需要花费很长的时间来按照edits中记录的操作进行恢复。所以Hadoop用到了SecondaryNameNode,它就是用来帮助元数据节点将内存中的元数据信息checkpoint到硬盘上的。

 

3、SecondaryNameNode工作流程:

  • SecondaryNameNode节点通知NameNode节点生成新的日志文件,以后的日志都写到新的日志文件中。

  • SecondaryNameNode节点用http get从NameNode节点获得fsimage文件及旧的日志文件。

  • SecondaryNameNode节点将fsimage文件加载到内存中,并执行日志文件中的操作,然后生成新的fsimage文件。

  • SecondaryNameNode节点将新的fsimage文件用http post传回NameNode节点上。

  • NameNode节点可以将旧的fsimage文件及旧的日志文件,换为新的fsimage文件和新的日志文件(第一步生成的),然后更新fstime文件,写入此次checkpoint的时间。

  • 这样NameNode节点中的fsimage文件保存了最新的checkpoint的元数据信息,日志文件也重新开始,不会变的很大了。

  • 流程图如下所示:

wKiom1OSgRaDTnQyAAHtiGS9Pvg733.jpg

 

4、SecondaryNameNode运行在另一台非NameNode的 机器上

SecondaryNameNode进程默认是运行在NameNode节点的机器上的,如果这台机器出错,宕机,对恢复HDFS文件系统是很大的灾难,更好的方式是:将SecondaryNameNode的进程配置在另外一台机器 上运行。至于为什么要将SNN进程运行在一台非NameNode的 机器上,这主要出于两点考虑:

可扩展性: 创建一个新的HDFS的snapshot需要将namenode中load到内存的metadata信息全部拷贝一遍,这样的操作需要的内存就需要 和namenode占用的内存一样,由于分配给namenode进程的内存其实是对HDFS文件系统的限制,如果分布式文件系统非常的大,那么namenode那台机器的内存就可能会被namenode进程全部占据。

容错性: 当snn创建一个checkpoint的时候,它会将checkpoint拷贝成metadata的几个拷贝。将这个操作运行到另外一台机器,还可以提供分布式文件系统的容错性。

 

 

5、配置将SecondaryNameNode运行在另一台机器上:

HDFS的一次运行实例是通过在namenode机器上的$HADOOP_HOME/bin/start-dfs.sh( 或者start-all.sh ) 脚本来启动的。这个脚本会在运行该脚本的机器上启动 namenode进程,而slaves机器上都会启动DataNode进程,slave机器的列表保存在 conf/slaves文件中,一行一台机器。并且会在另外一台机器上启动一个SecondaryNameNode进程,这台机器由conf/masters文件指定。所以,这里需要严格注意, conf/masters 文件中指定的机器,并不是说jobtracker或者namenode进程要 运行在这台机器上,因为这些进程是运行在 launch bin/start-dfs.sh或者 bin/start-mapred.sh(start-all.sh)的机器上的。所以,masters这个文件名是非常的令人混淆的,应该叫做secondaries会比较合适。然后,通过以下步骤:

 

*注:本文基于0.20.2配置测试,0.21以后已改成Checkpoint Node和Backup Node

一、配置

1. 在masters文件中添加 Secondary节点的主机名。

*注:masters文件用于指定secondary的主机而不是namenode,slaves用于指定datanode和tasktracker,namenode由core-site.xml fs.default.name指定,jobtracker由mapred-site.xml mapred.job.tracker指定

 

2. 修改hdfs-site.xml文件

<property>  

    <name>dfs.http.address</name>  

    <value>${your-namenode}:50070</value>  

    <description>Secondary get fsimage and edits via dfs.http.address</description>  

</property>  

<property>  

    <name>dfs.secondary.http.address</name>  

    <value>${your-secondarynamenode}:50090</value>  

    <description>NameNode get the newest fsimage via dfs.secondary.http.address</description>  

</property> 

*注:

实际上dfs.http.address只在secondary设置,dfs.secondary.http.address只在namenode上设置即可,为了便于管理,集群所有机器同样配置

采用默认端口(namenode:50070,secondary:50090)时可以省略该配置

3. 修改core-site.xml文件

<property>  

    <name>fs.checkpoint.period</name>  

    <value>3600</value>  

    <description>The number of seconds between two periodic checkpoints.</description>  

</property>  

<property>  

    <name>fs.checkpoint.size</name>  

    <value>67108864</value>  

    <description>The size of the current edit log (in bytes) that triggers a periodic checkpoint even if the fs.checkpoint.period hasn't expired.  </description>  

</property>  

<property>  

    <name>fs.checkpoint.dir</name>  

    <value>${Hadoop.tmp.dir}/dfs/namesecondary</value>  

    <description>Determines where on the local filesystem the DFS secondary namenode should store the temporary images to merge.If this is a comma-delimited list of directories then the image is replicated in all of the directories for redundancy.</description>  

</property> 

*注:该配置在secondary设置即可,为了便于管理,集群所有机器同样配置

 

6、hadoop 根据SecondaryNameNode恢复Namenode

 

1)  删除dfs.name.dir所指向的文件夹,这里是/data/work/hdfs/name

 [root@master name]# rm -rf *

删除name目录下的所有内容,但是必须保证name这个目录是存在的

 

2)从secondarynamenode远程拷贝namesecondary文件到namenode的namesecondary

 [root@master hdfs]# scp -r slave-001:/data/work/hdfs/namesecondary/ ./

 

3)启动namenode

 [root@master /data]# hadoop namenode –importCheckpoint

正常启动以后,屏幕上会显示很多log,这个时候namenode就可以正常访问了

 

4)  检查

 使用hadoop fsck /user命令检查文件Block的完整性

 hadoop fsck /

 

5)停止namenode,使用crrl+C或者会话结束

 

6)删除namesecondary目录下的文件(保存干净) 

[root@master namesecondary]# rm -rf *

 

7)正式启动namenode

 [root@master bin]# ./hadoop-daemon.sh start namenode

 恢复工作完成,检查hdfs的数据

 

8)  balancer

在使用start-balancer.sh时, 

默认使用1M/S(1048576)的速度移动数据(so slowly...) 

修改hdfs-site.xml配置,这里我们使用的是20m/S

 <property> 

<name>dfs.balance.bandwidthPerSec</name> 

<value>20971520</value> 

<description> Specifies the maximum bandwidth that each datanode can utilize for the balancing purpose in term of the number of bytes per second. </description> 

</property>

然后结果是导致job运行变得不稳定,出现一些意外的长map单元,某些reduce时间处理变长(整个集群负载满满的情况下,外加20m/s的balance),据说淘宝的为10m/s,需要调整后实验,看看情况如何。

 

hadoop balancer -threshold 5

 

猜你喜欢

转载自lbwahoo.iteye.com/blog/2090169