《文件/目录操作命令》

文件/目录操作命令:

#cd:跳转到指定目录
cd /home/hadoop #把/home/hadoop设置为当前目录
cd ../ #返回上一级目录
cd ../.. #返回上两级目录
cd ~ #进入到当前Linux系统登录用户的主目录(或主文件夹)。在 Linux 系统中,~代表的是用户的主文件夹,即“/home/用户名”这个目录,如果当前登录用户名为 hadoop,则~就代表“/home/hadoop/”这个目录 
#ls:查看文件相关信息
ls #查看当前目录中的文件
ls -l #查看文件和目录的权限信息
ls -a #显示当前路径下包含隐藏文件在内的所有文件。其中,隐藏文件是以"."开头
ls -h #相比ls -l,将文件的大小以K、M和G的形式展现,其余的内容是不变的
ls -help #查看其它的功能
#touch:创建空文件
touch 文件名 #创建空文件
touch 文件1 文件2 ... #创建空文件1 空文件2... 
#mkdir:创建目录,移除空文件夹
mkdir input #在当前目录下创建input子目录
mkdir -p src/main/scala #在当前目录下,创建多级子目录src/main/scala
mkdir 空文件夹 #移除空的文件夹
#cat:查看
cat /proc/version #查看Linux系统内核版本信息 
cat /home/hadoop/word.txt #把/home/hadoop/word.txt这个文件全部内容显示到屏幕上 
cat file1 file2 > file3 #把当前目录下的file1和file2两个文件进行合并生成文件file3  
cat file4 >> file3 #把file4中的内容追加到file3中
#head:输出前n行结果
head -5 word.txt #把当前目录下的word.txt文件中的前5行内容显示到屏幕上 
#cp:复制文件或文件夹
cp 文件1 文件2/文件夹2 #复制文件,可能出现覆盖的情况
cp -i 文件1 文件2/文件夹2 #复制文件。若要覆盖文件,会有提示"yes"或"no",避免出现覆盖的情况。
cp /home/hadoop/word.txt /usr/local/ #把/home/hadoop/word.txt文件复制到“/usr/local”目录下 
#复制多级目录。假设源目录为dir1,目标目录是dir2,如何将dir1下的所有文件复制到dir2下?可以采用如下的方式:
#目录dir2不存在,可以采用
cp -r dir1 dir2#目录dir2存在,可以采用
cp -r dir1/. dir2#复制多个文件
cp file* folder2/ #复制名字中部分内容相同的多个文件到folder2/
cp file1copy file2 folder1/ #将多个文件都复制到同一个文件夹folder1/下
#rm:删除文件或目录,注:执行了rm之后是没有返回操作的
rm ./word.txt #删除当前目录下的word.txt文件 
rm -i/I f1 f2 f3 f4 #删除多个文件(超过3个时会有提示) 
rm –r ./test #删除当前目录下的test目录及其下面的所有文件,将r也可以替换成R
rm –r test* #删除当面目录下所有以test开头的目录和文件  
rm -rf 目录名 #删除非空目录
#mv:重命名目录名,剪切文件到新的路径下
mv spark-2.1.0 spark #把spark-2.1.0目录重新命名为spark 
mv 原文件路径 目的路径 #把原文件剪切到目的路径
#chown
chown -R hadoop:hadoop ./spark #hadoop是当前登录Linux系统的用户名,把当前目录下的spark子目录的所有权限,赋予给用户hadoop 
#sudo 以系统管理员的权限来进行处理
sudo tar -zxf ~/下载/hadoop-2.7.1.tar.gz -C /usr/local #可以使用tar命令对后缀名为.tar.gz(或.tgz)的压缩文件进行解压,解压到/usr/local中
cd /usr/local/ 
sudo mv ./hadoop-2.7.1/ ./hadoop # 将文件夹名改为hadoop 
sudo chown -R hadoop ./hadoop # 修改文件权限
"""
上面 tar命令表示把“/home/hadoop/下载/hadoop-2.7.1.tar.gz”这个文件解压缩后保存到“/usr/local”目录下。其中,各个参数的含义如下:
* x : 从 tar 包中把文件提取出来;
* z : 表示 tar 包是被 gzip 压缩过的,所以解压时需要用gunzip解压;
* f : 表示后面跟着的是文件;
* C:表示文件解压后转到指定的目录下。
文件解压缩以后,hadoop用户是没有这个解压后得到的目录的权限的,所以,这里通过chown命令为hadoop用户赋予针对/usr/local/hadoop这个目录的权限。"""
#ln  建立软链接
ln -s 源文件 目标文件 #建立目标文件->源文件的软链接
#使用软连接,可以节省空间,不需要在源文件/目标文件下存放相同的文件
rm -rf 目标文件 #删除软链接
#awk:统计文件中第一列所有字符所对应的出现次数
awk '{cnt[($1)]++} END {for(key in cnt) print key ":" cnt[key]}' file  #file:本地文件的位置(相对路径或绝对路径都可以)

猜你喜欢

转载自www.cnblogs.com/luckylele/p/11938978.html