Linux基本使用命令

一、常用命令归纳分类

  课外网站  http://man.linuxde.net/
               http://www.jb51.net/linux/
               https://jaywcjlove.github.io/linux-command/

如果想查看命令的使用手册可以使用  man, 例如man clear

二、常用命令详解

     1、磁盘管理

      2、文件管理

其他命令:

三、vi 文本编辑器

       VI,是 linux 操作系统中最常用的文本编辑器, VIM 是它的增强版本, VI 有三种基本工作模式,分别是:命令模式 ( command mode)、插入模式 ( insert mode)和底行模式 ( last line mode) 
   

    1、最基本用法

       vi huangbo.txt

      (1)首先会进入“一般模式”,此模式只接受各种命令快捷键,不能编辑文件内容

      (2)按 键,就会从一般模式进入编辑模式,此模式下,敲入的都是文件内容

      (3)编辑完成之后,按 Esc 键退出编辑模式,回到一般模式;
      (4)再按:,进入“底行命令模式”,输入 wq 命令,回车即可保存退出

       移动光标:使用上下左右键移动光标  也可以使用hjkl,依次是向前下上右移动

    2、常用快捷键

    3、查找并替换(在底行命令模式中输入)

    4、替换操作

    补充:VIM 详解: http://linux.ctolib.com/cheat-sheets/view/Vim-command.html 

四、压缩打包

      1、gzip 压缩 :   gzip ma.txt 

      2、gzip解压缩  :    gzip -d ma.txt.gz 

      3、bzip2 压缩 :    bzip2 ma.dat 
      4、bzip2 解压缩     bzip2 -d ma.dat.bz2  或者 bunzip2 ma.dat.bz2 
      5、打包    tar -cvf ma.txt.tar ma.txt    (ma.txt.tar是打包生成的包名)
          追加打包    tar -rvf ma.txt.tar ma.dat  表示将 ma.dat 文件追加到 ma.txt.tar 当中 
      6、解包   tar -xvf ma.txt.tar 
      7、打包并压缩    tar -zcvf ma.tar.gz /root/ma/ 
      8、解包并解压缩   tar -zxvf ma.tar.gz 
                             tar -zxvf ma.tar.gz  -C /home/hadoop/liuwei  解压到指定目录
      9、查看压缩包内容  tar -ztvf ma.tar.gz 
      10、打包并压缩成bz2     tar -jcvf a.tar.bz2 
      11、解压bz2               tar -jxvf a.tar.bz2 
      相关参数的解释:

五、用户和组

    1、组操作

          添加一个叫 bigdata 的组      groupadd bigdata
          查看系统当前有那些组          cat /etc/group
         将 hadoop 添加到 bigdata 组中         usermod -g bigdata spark  或者   gpasswd -a spark bigdata
         将 spark 用户从 bigdata 组删除        gpasswd -d spark bigdata
          将 bigdata 组名修改为 bigspark       groupmod -n bigspark bigdata
          删除组                                       groupdel bigdata
    
     2、用户操作

          添加用户 

               useradd spark
               usermod -g bigdata spark     设置组

               usermod -c "mylove spark" spark     添加备注信息

               一步完成 useradd -g bigdata -c "mylove" spark 

         设置密码

               password spark 

         修改用户

               修改spark登录名   usermod -l spark storm 

                将spark 添加到bigdata 和root组  usermod -G root,bigdata spark

               查看spark的组信息  groups spark

         删除用户     userdel -r spark  加一个-r 代表把用户和用户的主目录都删除

      3、为用户配置 sudoer 权限 

           用 root 编辑 vi /etc/sudoers 

          在文件的如下位置,为 hadoop 添加一行即可 

          root ALL=(ALL) ALL
          hadoop ALL=(ALL) ALL
          spark ALL=(ALL) ALL

          然后, hadoop 用户就可以用 sudo 来执行系统级别的指令 

六、文件权限

       1、Linux文件权限解读

         

         2、修改文件权限

 

        3、修改文件所有权

七、修改系统时间

     1、查看系统当前时间 date -R

     2、CentOS 中时区是以文件形式存在,当前时区文件位于  /etc/localtime 
          其他时区文件则位于  /usr/share/zoneinfo 
          其中中国时区使用  /usr/share/zoneinfo/Asia/Shanghai 
         则,更改时区的话,直接使用如下命令就 OK   cp   /usr/share/zoneinfo/Asia/Shanghai   /etc/localtime 

    3、修改系统时间使用 date -s 

        例如 date -s 12/25/2016                     date -s 19:57:30            date -s "2016-12-23  19:57:30"

     4、每次手动修改系统时间 比较麻烦,可以 同步网络时间    ntpdate  time.nist.gov

         可以使用定时器,每隔一个时间段就执行一次

         crontab -e   然后往里面加入内容 */10 * * * * ntpdate  time.nist.gov 每隔10分钟 在  time.nist.gov时间服务器同步一次 ,也可以使用时间服务器 time.nuri.net    ,保存退出

八、修改主机名

     1、查看主机名 使用 hostname

     2、暂时性修改主机名使用hostname 例如 hostname hadoop02 ; 重新登录才会生效,再 下一次登录就会失效,因为是暂时性的

     3、永久性修改主机名  vi  /etc/sysconfig/network ;然后修改一下 hostname =主机名,保存退出

九、Linux系统启动级别管理

     1、查看系统运行的级别 :runlevel    (默认情况下是5)

     2、修改系统运行的级别:vi  /etc/inittab

           

十、切换用户

      切换用户的命令:su   例切换到root,  su root

十一、Linux 开关机、重启

         开机:开机键
         关机: shutdown, halt, init 0, poweroff
         重启: reboot, init 6
    Shutdown 命令详解:
         shutdown -h now ## 立刻关机
         shutdown -h +10 ## 10 分钟以后关机
         shutdown -h 12:00:00 ##12 点整的时候关机 

猜你喜欢

转载自www.cnblogs.com/dll102/p/12015539.html