[5]HDFS的Java客户端(Linux环境)

版权声明:Collected by Bro_Rabbit only for study https://blog.csdn.net/weixin_38240095/article/details/83022234
  1. 导入HDFS的核心jar以及依赖lib;common核心jar及依赖lib
  2. 导入core-site.xml以读取fs.defaultFS,否则将获取Linux文件系统ext;hdfs-site.xml读取replication
  3. 操作HDFS千必须声明FileSystem (Abstract class) 的引用
    /*
    	读取配置文件xxx-site.xml
    	可以对conf中的配置项进行手动set,将覆盖配置文件中的值
    */
    Configuration conf = new Configuration();
    
    //根据配置项获取一个文件系统的客户端可操作实例
    FileSystem fs = FileSystem.get(conf);
    

具体的FileSystem对用户透明

  1. 获取输入流

    Path f = new Path("hdfs://NameNode:9000/fileName");
    FSDataInputStream in = fs.open(f);
    
  2. 获取输出流

    Path f = new Path("hdfs://NameNode:9000/fileName");
    FSDataOutputStream os = fs.create(f);
    
  3. Hadoop-HDFS CRUD
    注:在Windows下,需要使用get(URI,Configuration,String)初始化,或者修改其他人O的相应权限

    (1)上传

    fs.copyFromLocalFile(src,dst);
    

    (2)下载

    fs.copyToLocalFile(src,dst);
    

    (3)新建[多级]目录

    fs.mkdirs(new Path("hdfs://NameNode:9000/bb/cc/dd/ee"));
    

    (4)删除

    //arg1-Boolean 表示是否 -r
    fs.delete(new Path("/aa"),true);
    

    (5)查看
    list
    listFiles(Path,Boolean) 返回LocatedFileStatus复杂文件信息对象迭代器(只有文件)。arg1-Boolean 表示是否 -r;
    listStatus(Path)返回文件和目录信息对象数组,但不提供 -r 递归,必须自己判断是否是可递归目录;

猜你喜欢

转载自blog.csdn.net/weixin_38240095/article/details/83022234