HDFS客户端读写流程及checkpoint

1.HDFS客户端写流程

 1)客户端请求上传数据到服务器

 2)服务器接收到这个请求,然后到自己的元数据里面去查询,元数据中是否记录了该文件的存在

 3)NN响应客户端是否可以上传

 4)服务器会发送再次请求,需要上传多大的数据文件

 5)服务器会检查DataNode的信息

 6)服务器会根据上传文件大小进行调度,调度出最合适的DataNode队列返回给客户端

【每隔3秒钟,DataNode都会向NN发送一个数据,DN的状态和可用空间】

 7)告诉DN需要上传数据

 8)客户端接收队列数据:

  通过pop方法,取出第一个节点的地址,然后访问该节点,并吧剩下的其他节点的IP地址带过去;

  第一个DN接收数据,再从队列中取出第一个,继续把剩下的IP带过去,直到最后一个节点结束;

  最后一个节点收到信息之后,想源地址发送确认消息,确认到第一个DN的时候,DN会把确认消息返回给客户端;

【即建立好了传输通道】

 9)客户端接收到最终确认消息之后,开始往每一个DN上写入数据

 10)最终写入成功会将消息返回给客户端

 11)客户端向NN汇报,数据写入成功,NN就会把消息写入元数据中

 12)最后NN会通知DN自动做数据副本平衡

2.HDFS客户端读流程

 1)客户端请求NN,需要下载文件

 2)NN把文件的元数据信息返回给客户端

 3)客户端接收到数据后,就到相应的客户端去请求数据即可

 4)最后客户端本地进行数据追加合并从而获得整个文件

3.元数据,SecondaryNamenode,Checkpoint

 3.1.元数据

 1)元数据:元数据是我们内存的一块空间

 2)元数据:是一个文件,fsimage_0000000000XX文件就是元数据

 3)元数据:就是一个小型的数据库,里面存放了所有文件的位置

 3.2.Secondarynamenode

 1)secondarynamenode实际上是对NameNode数据的一个备份

 2)secondarynamenode是为了防止NameNode机器挂掉

 3)secondarynamenode不能和NameNode放在一起

 可以修改hdfs-site.xml配置文件来指定secondarynamenode的地址

<!--指定SecondaryNameNode的地址-->
<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hdp02:50090</value>
</property>

 3.3.Checkpoint

 1)Checkpoint就是定时检查节点

HDFS元数据管理机制参考:https://www.cnblogs.com/jifengblog/p/9307791.html#autoid-3-0-0

猜你喜欢

转载自www.cnblogs.com/IT_CH/p/12382424.html