hdfs 读写流程

读文件的过程

1.hdfs client调用FileSystem的open()函数打开文件

2.DistributedFileSystem用RPC调用namenode节点,返回文件部分或全部的block列表(也包含该列表各个block块的分布在datanode的地址信息)并返回fsdataInputstream

3.hdfs client 调用fsdataInputStream的read方法

   a.去与最近的的datanode进行read。读取完后会检查是否成功,假如成功会关闭与当前通信的datanode(假如失败,会记录失败的block+datanode信息,下次再去读取,就去该块的第二个datanode去读取)

  b.然后去第二个块最近的datanode去读取,检查后(跟上面一样),关闭datanode通信

  c. 假如block列表读取完了,文件还未结束,那么FileSystem会从Namenode获取下一批的block的列表。
  (当然读操作对于Client端是透明的,感觉就是连续的数据流)

4.hdfs client调用fsdataInputStream的close方法关闭流

写文件的过程

1.Client调用FileSystem.create(filePath)方法,去与Namenode进行rpc通信,check该是否存在以及有没有权限创建该文件,假如ok,就创建一个新文件,但是并不关联任何block,返回一
个FSDataOutputStream对象;(假如not ok,就返回错误信息,所以写代码要try-catch) 

客户端开始写入数据,DFSOutputStream将数据分成块,写入data queue。

Data queue由Data Streamer读取,并通namenode分配数据节点,列表的大小根据在Namenode中对replication的设置而定。(用来存储数据块每块默认复制3块)。分配的数据节点放在一个pipeline(管道)里。

Data Streamer将数据块写入pipeline中的第一个数据节点。第一个数据节点将数据块发送给第二个数据节点。第二个数据节点将数据发送给第三个数据节点。

DFSOutputStream为发出去的数据块保存了ack queue,等待pipeline中的数据节点告知数据已经写入成功。当第三个节点写完返回一个ack packet给
第二个节点,第二个返回一个ack packet给第一个节点,第一个节点返回ack packet给FSDataOutputStream对象,意思标识第一个块写完,副本数为3;然后剩余的块依次这样写 
当向文件写入数据完成后,Client调用FSDataOutputStream.close()方法,关闭输出流,flush缓存
区的数据包 再调用FileSystem.complete()方法,告诉Namenode节点写入成功。 

如果数据节点在写入的过程中失败:

关闭pipeline,将ack queue中的数据块放入data queue的开始。

当前的数据块在已经写入的数据节点中被元数据节点赋予新的标示,则错误节点重启后能够察觉其数据块是过时的,会被删除。

失败的数据节点从pipeline中移除,另外的数据块则写入pipeline中的另外两个数据节点。

元数据节点则被通知此数据块是复制块数不足,将来会再创建第三份备份

使用HDFS的注意点: 
(1)流式数据访问,就是一次写入,多次读取。不可以修改数 据,只能删除。 
(2)保证数据块尽量大,这样NaeNode的压力会较小。 
(3)由于是磁盘读写,延迟必定会高,做好心理准备,如果你要求实时响应的要求较高,可以使用Spark。毕竟内存中读取数据比从磁盘读取要快很多。(前提是你有个大内存)

posted @ 2017-08-28 23:21  yangbk  阅读(380)  评论(0编辑  收藏  举报