初识Hadoop-HDFS

原文地址

https://blog.csdn.net/zhruixuan/article/details/85859158

HDFS-Hadoop Distributed Filesystem是Hadoop自带的一个分布式文件系统,可以将数据存储在分散的数据节点上。

适用场景

  1. 存储超大文件
  2. 流式数据访问,适合一次写入,多次读取,每次读取都读取全部数据或大部分数据的场景。

不适用场景

  1. 低时间延迟的数据访问,HDFS适合高吞吐的访问模式,传统的关系型数据库的访问方式并不适合HDFS,要求低延迟的场景可以使用Hbase。
  2. 大量的小文件,因为namenode将文件的元数据存储在内存中,因此该文件系统所能存储的文件总量受限于namenode节点的内存容量。一般来说,每个文件,目录以及数据块所占用的内存是150字节,那么存储100万个文件,假设每个文件占用一个数据块,那么至少需要1502100万字节(300M)的内存。
  3. 多用户写入,任意修改文件,HDFS中的文件的写入只支持单个写入者,而且写操作是以只添加的方式在文件末尾写入。不支持多个写入者,也不支持在文件的任意位置进行修改。

重要概念

数据块

对于磁盘来说有默认的数据块大小(一般512字节),这是磁盘进行读写的最小单位,构建于单个磁盘之上的文件系统可以通过磁盘块来管理存储的数据,该文件系统的数据块大小可以是磁盘块的整数倍。HDFS中也有数据块的概念,默认是128M(设计的比较大的原因是为了减少寻址开销),但是HDFS中小于一个块大小的文件不会占据整个块的空间。

namenode、datanode

HDFS系统中有两类节点-管理节点(namenode),工作节点(datanode),namenode只有一个处于运行状态,工作节点有多个。

  1. namenode 负责管理文件系统的命名空间,它维护着文件系统树以及整棵树内所有的文件和目录。存储文件到文件数据块的映射关系。这些信息以命名空间镜像文件编辑日志文件的形式永久保存在本地磁盘上。namenode也记录着每个文件的各个数据块所在的数据节点(datanode)信息,但是它并不永久保存这类信息,因为这些信息会在系统启动时根据数据节点发来的信息重建。
  2. datanode是文件系统的工作节点,它们负责存储和检索数据块,并定期向namenode报告它们所存储的数据块列表。
  3. namenode容错,如果namenode损坏,整个HDFS将不可用,因为文件系统树存储在namenode,如果没有这些信息就无法根据datanode的文件块信息进行文件重建。所以需要对namenode进行容错处理。一般有两种方式:
    1. 备份namenode上关于文件系统元数据的文件。Hadoop可以通过配置使namenode在多个文件系统上保存元数据的持久文件。并且这些写操作是原子的。一般的配置是,将持久状态写入本地磁盘的同时,写入一个远程挂载的网络文件系统(NFS)。
    2. 运行一个辅助的namenode,这个节点负责定期合并主namenode上的命名空间镜像文件编辑日志文件以保持和主节点同步,当主节点发生故障时启用。但是这样也难免丢失部分数据,所以一般是将NFS中的持久化数据复制到辅助namenode。

块缓存

通常datanode从磁盘中读取文件块。但是对于频繁访问的文件对应的数据块可能被缓存在datanode的内存中。

联邦HDFS(扩展namenode)

namenode在内存中保存每个文件和每个数据块的引用关系。所以namenode的内存将成为系统横向扩展的瓶颈。在2.X版本中引入的联邦HDFS允许系统添加namenode实现扩展,其中每个namenode管理文件系统命名空间的一部分。例如一个namenode管理/user目录下的所有文件,另一个管理/order下的所有文件。

命令

  1. hadoop fs -help

  2. 拷贝本地文件到HDSF: hadoop fs -copyFromLocal input/docs/foo.txt (hdfs://localhost/user/tom/)foo.txt

  3. 拷贝HDFS文件到本地并校验是否更改: hadoop fs -copyToLocal (hdfs://localhost/user/tom/)foo.txt foo.txt md5 input/docs/foo.txt foo.txt

  4. 创建目录 hadoop fs -mkdir books

  5. 列出目录文件 hadoop fs -ls drwxr-xr-x - tom supergroup 0 2019-1-5 19:35 books drwxr-xr-x 1 tom supergroup 119 2019-1-5 19:35 foo.txt 第1列是文件模式,第2列是这个文件的备份数(目录没有复本的概念,目录作为元数据保存在namenode中,而非datanode中),第3列第4列显示文件的所属用户和组别,第5列显示文件大小(字节)

  6. distcp并行复制文件(通过mapreduce实现,只有maper没有reducer),典型用法是在两个hdfs集群间复制数据,例如,以下命令在第二个集群上为第一个集群foo目录创建了一个备份: hadoop distcp -update -delete -p hdfs://namenode1/foo hdfs://namenode2/foo distcp

Hadoop文件系统

HDFS只是Hadoop文件系统的一种实现,java抽象类org.apache.hadoop.fs.FileSystem定义了Hadoop文件系统的客户端借口,以下是其几个典型实现。 hadoop文件系统-1 hadoop文件系统-2 可以通过uri选择合适的文件系统,例如命令行中列出本地文件系统根目录下所有文件 hadoop fs -ls file:/// 如果非java应用想要访问HDFS可以通过http或者https直接访问或者通过代理 http访问HDFS direct access方式需要HDFS的节点作为http服务器响应请求(dfs.webhdfs.enabled设置为true)

java接口FileSystem

URL方式访问数据

  1. public class URLCat{
  2. static{
  3. //为了让URL可以识别"hdfs"的uri
  4. //每个Jvm只能调用一次该方法
  5. URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
  6. }
  7. public static void main(String[] args) trows Exception{
  8. InputStream in = null;
  9. try{
  10. in = new URL(args[0]).openStream();
  11. //process in
  12. IOUtils.copyBytes(in, System.out, 4096, false);
  13. } finally{
  14. IOUtils.closeStream(in);
  15. }
  16. }
  17. }

运行

  1. % export HADOOP_CLASSPATH=hadoop-examples.jar
  2. % hadoop URLCat hdfs://localhost/user/tom/foo.txt

FileSystem Api方式访问数据

因为有时候setURLStreamHandlerFactory已经被其他组件调用了,我们无法再设置,所以可以使用FileSystem Api的方式访问数据。 Hadoop中通过Path对象而不是File对象来表示文件 读取

  1. public class FileSystemCat{
  2. public static void main(String[] args) throws Exception{
  3. String uri = args[0];
  4. Configuration conf = new Configuration();
  5. FileSystem fs = FileSystem.get(URI.create(uri), conf);
  6. InputStream in = null;
  7. try{
  8. //不指定缓冲区,使用默认缓冲区4K
  9. in = fs.open(new Path(uri));
  10. IOUtils.copyBytes(in, System.out, 4096, false);
  11. //回到起点,seek操作开销比较高
  12. in.seek(0);
  13. IOUtils.copyBytes(in, System.out, 4096, false);
  14. }finally{
  15. IOUtils.closeStream(in);
  16. }
  17. }
  18. }

写入

  1. public class FileCopyWithProgress{
  2. public static void main(String[] args) throws Exception{
  3. String localSrc = args[0];
  4. String dst = args[1];
  5. InputStream in = new BufferedInputStream(new FileInputSream(localSrc));
  6. Configuration conf = new Configuration();
  7. FileSystem fs = FileSystem.get(URI.create(dst), conf);
  8. OutputStream out = fs.create(new Path(dst), new Progressable(){
  9. //反馈进度
  10. public void progress(){
  11. System.out.print(".");
  12. }
  13. });
  14. IOUtils.copyBytes(in, out, 4096, true);
  15. }
  16. }
  1. % hadoop FileCopyWithProgress input/docs/foo.txt hdfs://localhost/user/tom/foo.txt

列出一组hdfs一组路径中的文件信息

  1. public class listStatus{
  2. public static void main(String[] args) throws Exception{
  3. String uri = args[0];
  4. Configuration conf = new Configuration();
  5. FileSystem fs = FileSystem.get(URI.create(uri), conf);
  6. Path[] paths = new Path[args.length];
  7. for(int i = 0; i<paths.length; i++){
  8. paths[i] = new Path(args[i]);
  9. }
  10. FileStatus[] status = fs.listStatus(paths);
  11. //将FileStatus转换为Path
  12. Path[] listedPaths = FileUtil.stat2Paths(status);
  13. for(Path p : listedPaths){
  14. System.out.println(p);
  15. }
  16. }
  17. }

数据流

读取数据流

客户端读取hdfs数据

写入数据流

写入hdfs数据流

一致模型

文件系统的一致模型描述了文件读/写数据的可见性,HDFS为性能牺牲了一些POSIX的要求。 新建一个文件后可以在文件系统的命名空间中立即可见:

  1. Path p = new Path("p");
  2. Fs.create(p);
  3. assertThat(fs.exists(p), is(true));

但是,写入文件的内容并不保证能立即可见: 当写入的数据超过一个块后,第一个数据块对新的reader就是可见的。之后的块也不例外,总之,当前正在写入的块对其他reader不可见。

  1. Path p = new Path("p");
  2. OutputStream out = fs.create(p);
  3. out.write("content".getBytes("UTF-8"));
  4. out.flush();
  5. assertThat(fs.getFileStatus(p).getLen(), is(0L));

HDFS提供了一种强行将所有缓存刷新到datanode中的手段,即对FSDataOutputStream调用hflush()方法。当hflush()方法返回成功后,对所有新的reader而言,HDFS能保证文件中到目前为止写入的数据均到达所有datanode的写入管道并对所有新的reader均可见。

  1. Path p = new Path("p");
  2. FSDataOutputStream out = fs.create(p);
  3. out.write("content".getBytes("UTF-8"));
  4. out.hflush();
  5. assertThat(fs.getFileStatus(p).getLen(), is((long)"content".getBytes("UTF-8")));

在hdfs中关闭文件(out.close())其实隐含了执行hflush()

需要注意的是,hflush()不能保证datanode已经将数据写到磁盘上,仅确保数据在datanode的内存中(如果断电,数据可能丢失),为确保数据写入磁盘,可以用hsync()

猜你喜欢

转载自www.cnblogs.com/voguesuper/p/10226564.html