文件/目录操作命令:
#cd:跳转到指定目录 cd /home/hadoop #把/home/hadoop设置为当前目录 cd ../ #返回上一级目录 cd ../.. #返回上两级目录 cd ~ #进入到当前Linux系统登录用户的主目录(或主文件夹)。在 Linux 系统中,~代表的是用户的主文件夹,即“/home/用户名”这个目录,如果当前登录用户名为 hadoop,则~就代表“/home/hadoop/”这个目录 #ls:查看文件相关信息 ls #查看当前目录中的文件 ls -l #查看文件和目录的权限信息 ls -a #显示当前路径下包含隐藏文件在内的所有文件。其中,隐藏文件是以"."开头 ls -h #相比ls -l,将文件的大小以K、M和G的形式展现,其余的内容是不变的 ls -help #查看其它的功能 #touch:创建空文件 touch 文件名 #创建空文件 touch 文件1 文件2 ... #创建空文件1 空文件2... #mkdir:创建目录,移除空文件夹 mkdir input #在当前目录下创建input子目录 mkdir -p src/main/scala #在当前目录下,创建多级子目录src/main/scala mkdir 空文件夹 #移除空的文件夹 #cat:查看 cat /proc/version #查看Linux系统内核版本信息 cat /home/hadoop/word.txt #把/home/hadoop/word.txt这个文件全部内容显示到屏幕上 cat file1 file2 > file3 #把当前目录下的file1和file2两个文件进行合并生成文件file3 cat file4 >> file3 #把file4中的内容追加到file3中 #head:输出前n行结果 head -5 word.txt #把当前目录下的word.txt文件中的前5行内容显示到屏幕上 #cp:复制文件或文件夹 cp 文件1 文件2/文件夹2 #复制文件,可能出现覆盖的情况 cp -i 文件1 文件2/文件夹2 #复制文件。若要覆盖文件,会有提示"yes"或"no",避免出现覆盖的情况。 cp /home/hadoop/word.txt /usr/local/ #把/home/hadoop/word.txt文件复制到“/usr/local”目录下 #复制多级目录。假设源目录为dir1,目标目录是dir2,如何将dir1下的所有文件复制到dir2下?可以采用如下的方式: #目录dir2不存在,可以采用 cp -r dir1 dir2#目录dir2存在,可以采用 cp -r dir1/. dir2#复制多个文件 cp file* folder2/ #复制名字中部分内容相同的多个文件到folder2/ cp file1copy file2 folder1/ #将多个文件都复制到同一个文件夹folder1/下 #rm:删除文件或目录,注:执行了rm之后是没有返回操作的 rm ./word.txt #删除当前目录下的word.txt文件 rm -i/I f1 f2 f3 f4 #删除多个文件(超过3个时会有提示) rm –r ./test #删除当前目录下的test目录及其下面的所有文件,将r也可以替换成R rm –r test* #删除当面目录下所有以test开头的目录和文件 rm -rf 目录名 #删除非空目录 #mv:重命名目录名,剪切文件到新的路径下 mv spark-2.1.0 spark #把spark-2.1.0目录重新命名为spark mv 原文件路径 目的路径 #把原文件剪切到目的路径 #chown chown -R hadoop:hadoop ./spark #hadoop是当前登录Linux系统的用户名,把当前目录下的spark子目录的所有权限,赋予给用户hadoop #sudo 以系统管理员的权限来进行处理 sudo tar -zxf ~/下载/hadoop-2.7.1.tar.gz -C /usr/local #可以使用tar命令对后缀名为.tar.gz(或.tgz)的压缩文件进行解压,解压到/usr/local中 cd /usr/local/ sudo mv ./hadoop-2.7.1/ ./hadoop # 将文件夹名改为hadoop sudo chown -R hadoop ./hadoop # 修改文件权限 """ 上面 tar命令表示把“/home/hadoop/下载/hadoop-2.7.1.tar.gz”这个文件解压缩后保存到“/usr/local”目录下。其中,各个参数的含义如下: * x : 从 tar 包中把文件提取出来; * z : 表示 tar 包是被 gzip 压缩过的,所以解压时需要用gunzip解压; * f : 表示后面跟着的是文件; * C:表示文件解压后转到指定的目录下。 文件解压缩以后,hadoop用户是没有这个解压后得到的目录的权限的,所以,这里通过chown命令为hadoop用户赋予针对/usr/local/hadoop这个目录的权限。""" #ln 建立软链接 ln -s 源文件 目标文件 #建立目标文件->源文件的软链接 #使用软连接,可以节省空间,不需要在源文件/目标文件下存放相同的文件 rm -rf 目标文件 #删除软链接 #awk:统计文件中第一列所有字符所对应的出现次数 awk '{cnt[($1)]++} END {for(key in cnt) print key ":" cnt[key]}' file #file:本地文件的位置(相对路径或绝对路径都可以)