HDFS的上传与下载(put & get)

最近在做一个小任务,将一个CDH平台中Hive的部分数据同步到另一个平台中。毕竟我也刚开始工作,在正式开始做之前,首先进行了一段时间的练习,下面的内容就是练习时写的文档中的内容。如果哪里有错误或者疏漏,希望各位网友能够指出。

1. 操作指令

 

  该操作的主要步骤是从一个平台的HDFS中拉取数据,然后上传到另一平台的HDFS中。

  Hadoop下HDFS的操作指令包括:

    1)上传文件:

      hadoop fs -copyFromLocal /File

      hadoop fs -put File /File(Folder)

    前者只能上传文件,后者可以上传文件夹。

    2)创建目录:hadoop fs -mkdir /Index

    3)删除目录:hadoop fs -rmdir /Index

    4)删除文件:hadoop fs /File

    5)递归删除:hadoop fs -rmr /FileIndex

    6)下载文件:hadoop fs -get /File /SavePath

    7)查看文件:hadoop fs -ls /File

    8)递归查看:hadoop fs -lsr /FileIndex

    9)查看内容:hadoop fs -cat /File

    10)查看最后1000字节:hadoop fs -tail /File

    11)移动文件:hadoop fs -mv /File

    12)重命名文件:hadoop fs -mv /FileName /NewFileName

    13)创建空文件:hadoop fs -touchz /FileName

    14)合并下载:hadoop fs -getmerge /

 

2. 上传文件测试

 

  在正式转移数据之前,我们首先进行一些数据转移的练习。

  1)首先,在Linux系统下建立一个Test文件夹(/home/Test),在其中新建三个文本文件:

        [root@DataCenter2 Test]# ll
    总用量 12
    -rw-r--r-- 1 root root 34 3月  14 15:25 1.txt
    -rw-r--r-- 1 root root 16 3月  14 15:25 2.txt
    -rw-r--r-- 1 root root 17 3月  14 15:25 3.txt

   

  2)查看HDFS的文件系统,我们选择文件夹/user/admin/hdfsTest,首先查看其信息:

      drwxr-xr-x   - hdfs  admin   0 2018-08-27 15:47 /user/admin/hdfsTest

    查看该目录中的数据,该目录下包含两个文件:

      [root@DataCenter2 Test]# hadoop fs -ls /user/admin/hdfsTest
      Found 2 items
      -rw-r--r-- 3   hdfs   admin      1004054 2018-08-27 15:47  /user/admin/hdfsTest/img102.jpg
      -rw-r--r-- 3   hdfs   admin       29 2018-08-27 15:39   /user/admin/hdfsTest/testHDFS.txt

 

  3)尝试从Test目录下上传一个文本到目录 HDFS:/user/admin/hdfsTest 下,结果如下:

      [root@DataCenter2 Test]# hadoop fs -put 1.txt /user/admin/hdfsTest
      put: Permission denied: user=root, access=WRITE,inode="/user/admin/hdfsTest":hdfs:admin:drwxr-xr-x

  结果显示,当前账户权限不足,不能向HDFS中写入数据。但是当前登录的账户是root,怎么会权限不足呢?

  经过查询,大致发现问题所在,在CDH平台中,文件的所有者并不是所谓的“root”,而是为“hdfs”所有(drwxr-xr-x / 755权限,这里将hdfs理解为一个属于supergroup的用户)。

  事实上,回头看/user目录的权限,会发现该目录的权限组的确是supergroup:

    drwxrwxrwx   - hdfs  supergroup          0  2018-12-04 16:53 /user

 

  4)如何解决权限不足的问题?

    可以想到的有两种方案:一是关闭系统的权限验证,而是提升当前账户的权限。一般来说不会使用第一种方案,那么就需要提升当前账户的权限。

    那么如何提升权限?这里需要用到指令:sudo

    关于该指令的介绍如下:

    sudo是linux系统管理指令,是允许系统管理员让普通用户执行一些或者全部的root命令的一个工具,如halt,reboot,su等等。这样不仅减少了root用户的登录 和管理时间,同样也提高了安全性。sudo不是对shell的一个代替,它是面向每个命令的。

    sudo的特性

    sudo能够限制用户只在某台主机上运行某些命令。
    sudo提供了丰富的日志,详细地记录了每个用户干了什么。它能够将日志传到中心主机或者日志服务器。
    sudo使用时间戳文件来执行类似的“检票”系统。当用户调用sudo并且输入它的密码时,用户获得了一张存活期为5分钟的票(这个值可以在编译的时候改变)。
    sudo的配置文件是sudoers文件,它允许系统管理员集中的管理用户的使用权限和使用的主机。它所存放的位置默认是在/etc/sudoers,属性必须为0440。

    sudo的原理

    在sudo于1980年前后被写出之前,一般用户管理系统的方式是利用su切换为超级用户。但是使用su的缺点之一在于必须要先告知超级用户的密码。
    sudo使一般用户不需要知道超级用户的密码即可获得权限。首先超级用户将普通用户的名字、可以执行的特定命令、按照哪种用户或用户组的身份执行等信息,登记在特殊的文件中(通常是/etc/sudoers),即完成对该用户的授权(此时该用户称为“sudoer”);在一般用户需要取得特殊权限时,其可在命令前加上“sudo”,此时sudo将会询问该用户自己的密码(以确认终端机前的是该用户本人),回答后系统即会将该命令的进程以超级用户的权限运行。之后的一段时间内(默认为5分钟,可在/etc/sudoers自定义),使用sudo不需要再次输入密码。
    由于不需要超级用户的密码,部分Unix系统甚至利用sudo使一般用户取代超级用户作为管理帐号,例如Ubuntu、Mac OS X等。

    sudo的语法

    sudo [-bhHpV][-s ][-u <用户>][指令]
    或
    sudo [-klv]
    参数
     -b 在后台执行指令。
     -h 显示帮助。
     -H 将HOME环境变量设为新身份的HOME环境变量。
    -k 结束密码的有效期限,也就是下次再执行sudo时便需要输入密码。
    -l 列出目前用户可执行与无法执行的指令。
    -p 改变询问密码的提示符号。
    -s 执行指定的shell。
    -u <用户> 以指定的用户作为新的身份。若不加上此参数,则预设以root作为新的身份。
     -v 延长密码有效期限5分钟。
     -V 显示版本信息。
     -S 从标准输入流替代终端来获取密码

 

   5)尝试使用sudo进行上传文件:    

      [root@DataCenter2 Test]# sudo -u hdfs hadoop fs -put 1.txt  /user/admin/hdfsTest
      [root@DataCenter2 Test]# hadoop fs -ls /user/admin/hdfsTest
      -rw-r--r-- 3 hdfs admin 34 2019-03-14 16:24   /user/admin/hdfsTest/1.txt

    会发现,使用sudo指令后的操作成功执行了。

 

3. 下载文件测试

  上传文件成功后,让我们在尝试进行下载文件。

  1)仍然是 /user/admin/hdfsTest 目录,这次我们尝试下载文件img102.jpg。

    [root@DataCenter2 Test]# hadoop fs -ls /user/admin/hdfsTest
    Found 2 items
    -rw-r--r-- 3 hdfs admin 1004054 2018-08-27 15:47  /user/admin/hdfsTest/img102.jpg
    -rw-r--r-- 3 hdfs admin 29 2018-08-27 15:39  /user/admin/hdfsTest/testHDFS.txt

  2)执行命令,下载文件:

    [root@DataCenter2 Test]# hadoop fs -get  /user/admin/hdfsTest/img102.jpg ./
    [root@DataCenter2 Test]# ls
    1.txt 2.txt 3.txt img102.jpg

    发现成功下载文件。

 

4. 上传及下载文件成功后,还需要进行Hive中数据的下载与导入。该测试我们放入下一个文档进行。

 

猜你喜欢

转载自www.cnblogs.com/BlackString/p/10552553.html