hadoop之hdfs详解之二:写流程

客户端通过rpc与NN通信
写文件命令:bin/hdfs dfs - put xxx.log /usr/hadoop/data/

1、Client调用(Distributed FileSystem)filesystem.creat(path),与NN进行rpc通信,NN check Path是否已经存在及有没有权限创建;

-假如ok,就创建一个新文件,但是不关联任何的block,返回一个FSDataOutputStream对象;

-假如不ok,就返回错误信息。

2、Client调用FSDataOutputStream对象的write方法
将第一个块写给DataNode(DN1),当第一个块写完,DN1复制块到DN2,
当第二个块写完,DN2复制块到DN3,
当第三个块写完,DN3返回一个ack packet确认包给DN2,
当DN2收到DN3的ack,发送一个ack packet给DN1,
当DN1收到DN2的ack,发送一个ack packet 给FSDataOutputStream对象,标识第一个块3个副本全部写完;
然后余下的块依次这么写!

3、刷新缓存数据包:
当文件写完成,Client调用FSDataOutputStream对象的close方法,关闭输出流,flush缓存区的数据包

4、再调用filesystem.complete方法,告诉NN文件写入完毕。

猜你喜欢

转载自blog.csdn.net/Sylvia_D507/article/details/82945376