大数据Linux常用命令3

1.用户 用户组

 1 [root@bigdata ~]# ll /usr/sbin/user*
 2 -rwxr-x--- 1 root root 118192 Nov 6 2016 /usr/sbin/useradd
 3 -rwxr-x--- 1 root root 80360 Nov 6 2016 /usr/sbin/userdel
 4 -rwxr-x--- 1 root root 113840 Nov 6 2016 /usr/sbin/usermod
 5 -rwsr-xr-x 1 root root 11296 Apr 13 2017 /usr/sbin/usernetctl
 6 [root@bigdata ~]# 
 7 [root@bigdata ~]# 
 8 [root@bigdata ~]# ll /usr/sbin/group*
 9 -rwxr-x--- 1 root root 65480 Nov 6 2016 /usr/sbin/groupadd
10 -rwxr-x--- 1 root root 57016 Nov 6 2016 /usr/sbin/groupdel
11 -rwxr-x--- 1 root root 57064 Nov 6 2016 /usr/sbin/groupmems
12 -rwxr-x--- 1 root root 76424 Nov 6 2016 /usr/sbin/groupmod
13 [root@bigdata ~]#
14 
15 [root@bigdata ~]# useradd hadoop
16 [root@bigdata ~]# id hadoop
17 uid=1004(hadoop) gid=1004(hadoop) groups=1004(hadoop)
18 [root@bigdata ~]#
19 
20 创建一个普通用户 用户名称 hadoop 
21 同时也会创建一个 hadoop用户组
22 设置hadoop用户的组为hadoop,且把这个hadoop用户组设置为 主组
23 同时也创建家目录 /home/hadoop 
24 [root@bigdata ~]# ll /home
25 drwx------ 2 hadoop hadoop 59 Apr 19 20:10 hadoop
26 
27 用户存储信息 /etc/passwd
28 用户组 /etc/group
29 
30 
31 [root@bigdata ~]# userdel hadoop
32 [root@bigdata ~]# useradd hadoop
33 useradd: warning: the home directory already exists.
34 Not copying any file from skel directory into it.
35 Creating mailbox file: File exists

样式丢失

 1 [root@bigdata ~]# su - hadoop
 2 Last login: Sun Apr 19 20:16:54 CST 2019 on pts/0
 3 [hadoop@bigdata ~]$ ll -a
 4 total 16
 5 drwx------ 2 hadoop hadoop 79 Apr 19 20:16 .
 6 drwxr-xr-x. 7 root root 67 Apr 19 20:10 ..
 7 -rw------- 1 hadoop hadoop 28 Apr 19 20:17 .bash_history
 8 -rw-r--r-- 1 hadoop hadoop 18 Apr 11 2018 .bash_logout
 9 -rw-r--r-- 1 hadoop hadoop 193 Apr 11 2018 .bash_profile
10 -rw-r--r-- 1 hadoop hadoop 231 Apr 11 2018 .bashrc
11 [hadoop@bigdata ~]$ rm -rf .bash*
12 [hadoop@bigdata ~]$ ll -a
13 total 0
14 drwx------ 2 hadoop hadoop 6 Apr 19 20:17 .
15 drwxr-xr-x. 7 root root 67 Apr 19 20:10 ..
16 [hadoop@bigdata ~]$ 
17 [hadoop@bigdata ~]$ 
18 [hadoop@bigdata ~]$ exit
19 logout
20 [root@bigdata ~]# su - hadoop
21 Last login: Sun Apr 19 20:17:08 CST 2020 on pts/0
22 -bash-4.2$ 
23 -bash-4.2$ 
24 -bash-4.2$ 
25 -bash-4.2$ id
26 uid=1004(hadoop) gid=1004(hadoop) groups=1004(hadoop)
27 -bash-4.2$

样式恢复

 1 -bash-4.2$ cp /etc/skel/.* ./
 2 cp: omitting directory ‘/etc/skel/.’
 3 cp: omitting directory ‘/etc/skel/..’
 4 -bash-4.2$ ll -a
 5 total 16
 6 drwx------ 2 hadoop hadoop 79 Apr 19 20:20 .
 7 drwxr-xr-x. 7 root root 67 Apr 19 20:10 ..
 8 -rw------- 1 hadoop hadoop 39 Apr 19 20:18 .bash_history
 9 -rw-r--r-- 1 hadoop hadoop 18 Apr 19 20:20 .bash_logout
10 -rw-r--r-- 1 hadoop hadoop 193 Apr 19 20:20 .bash_profile
11 -rw-r--r-- 1 hadoop hadoop 231 Apr 19 20:20 .bashrc
12 
13 -bash-4.2$ 
14 -bash-4.2$ exit
15 logout
16 [root@bigdata ~]# su - hadoop
17 Last login: Sun Apr 19 20:18:56 CST 2020 on pts/0
18 [hadoop@bigdata ~]$ 


添加用户到bigdata用户组

 1 [root@bigdata ~]# groupadd bigdata
 2 
 3 #再将hadoop添加的一个新的group作为追加的group
 4 
 5 [root@bigdata ~]# usermod -a -G bigdata hadoop
 6 [root@bigdata ~]# id hadoop
 7 uid=1004(hadoop) gid=1004(hadoop) groups=1004(hadoop),1005(bigdata)
 8 [root@bigdata ~]# 
 9 #将bigdata 作为首要group
10 [root@bigdata ~]# usermod -g bigdata hadoop
11 [root@bigdata ~]# 
12 [root@bigdata ~]# id hadoop
13 uid=1004(hadoop) gid=1005(bigdata) groups=1005(bigdata)

2.设置密码passwd

 1 [root@bigdata ~]# passwd
 2 Changing password for user root.
 3 New password:
 4 
 5 [root@bigdata ~]# passwd hadoop
 6 Changing password for user hadoop.
 7 New password: 
 8 BAD PASSWORD: The password is shorter than 8 characters
 9 Retype new password: 
10 passwd: all authentication tokens updated successfully.
11 
12 3.切换用户
13 su hadoop
14 su - hadoop 【推荐】
15 代表该用户切换到家目录,且执行环境变量文件

4.sudo 普通用户临时使用root的最大权限

 1 vi /etc/sudoers
 2 hadoop ALL=(root) NOPASSWD:ALL
 3 
 4 [hadoop@bigdata ~]$ cat /root/rz.log
 5 cat: /root/rz.log: Permission denied
 6 [hadoop@bigdata ~]$ sudo cat /root/rz.log
 7 www.hadoopdata.com
 8 [hadoop@bigdata ~]$
 9 
10 5./etc/passwd文件
11 hadoop:x:1004:1005::/home/hadoop:/sbin/nologin 切换用户失败会提示 
12 hadoop:x:1004:1005::/home/hadoop:/usr/bin/false 切换用户失败没提示
13 
14 CDH平台 hdfs yarn hive hbase 这些用户
15 su - yarn 不成功的 
16 需要修改/etc/passwd文件中
17 /sbin/nologin /usr/bin/false ===》/bin/bash

6.权限

 1 [root@bigdata ~]# ll
 2 -rw-r--r-- 1 root root 9 Apr 18 20:50 22.log
 3 drwxr-xr-x 2 root root 6 Apr 15 22:12 dir3
 4 第一个字母:d文件夹 -文件 l连接
 5 后面9个字母,3个字母为一组:
 6 rw- r-- r--
 7 
 8 r: read 读权限 4
 9 w: write 写权限 2
10 x: 执行 1
11 -: 没权限 0 占位
12 
13 7=4 2 1
14 5=4 1
15 6=4 2
16 3=2+1
17 
18 rw- 第一组 6 代表文件或文件夹的所属用户,读写权限
19 r-- 第二组 4 代表文件或文件夹的所属用户组,读权限
20 r-- 第三组 4 代表其他用户组的用户对这个文件或文件夹,读权限
21 
22 rw-r--r-- root root 22.log
23 
24 关于权限:
25 chmod -R 777 文件或文件夹
26 chown -R 用户:用户组 文件或文件夹

7.大小

1 文件: ll -h 、du -sh
2 文件夹: du -sh

8.搜索 find

1 接手大数据平台,服务器登录,大数据组件安装目录在哪?
2 
3 find / -name '*hadoop*'
4 find /home/hadoop/ -name '*hadoop*'

补充:

1 history 查看历史命令 
2 ps -ef 查看进程

9.vi命令

 1 9.1 正常编辑一个文件,要正常退出 wq
 2 反之:
 3 -rw-r--r-- 1 root root 16 Apr 19 21:26 2.log
 4 -rw-r--r-- 1 root root 12288 Apr 19 21:31 .2.log.swp
 5 
 6 
 7 rm -rf .2.log.swp
 8 
 9 9.2 粘贴的坑,必须进入编辑模式,否则第一行内容丢失 不完整
10 
11 9.3 搜索 尾行--》 /error
12 
13 9.4 行号
14 
15 尾行--》 set nu 设置行号
16 set nonu 取消行号
17 
18 f 也是可以显示 当前光标的所在的行
19 
20 9.5 常用快捷方式
21 dd 删除当前行
22 dG 删除当前及以下所有行
23 ndd 删除当前及以下n行
24 
25 
26 gg 跳转到第一行的第一个字母
27 G 跳转到最后一行的第一个字母
28 shift+$ 行尾
29 
30 
31 场景:
32 清空这个文件内容,从另外一个文件内容 拷贝过来
33 gg--》dG --》 i -->鼠标右键单击 粘贴上

清空补充:

 1 cat /dev/null > 1.log
 2 echo "" > 2.log
 3 
 4 [root@bigdata ~]# ll
 5 total 16
 6 -rw-r--r-- 1 root root 0 Apr 19 21:58 1.log
 7 -rw-r--r-- 1 root root 1 Apr 19 21:58 2.log
 8 
 9 场景:
10 shell脚本,数据文件清空操作,根据字节大小判断是否清空完成
11 
12 echo "" > 2.log
13 if filezie > 0 then
14 业务不操作
15 else
16 2.log 灌业务数据
17 
18 这样肯定就是错误的
19 
20  

猜你喜欢

转载自www.cnblogs.com/huangguoming/p/13181120.html
今日推荐