分发脚本

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/m0_37294838/article/details/89740749

1.    scp(secure copy)安全拷贝

(1)scp定义:

              scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)

(2)基本语法

                  scp    -r          $pdir/$fname              $user@hadoop$host:$pdir/$fname

                  命令   递归       要拷贝的文件路径/名称    目的用户@主机:目的路径/名称

(3)案例实操

(a)在hadoop101上,将hadoop101中/opt/module目录下的软件拷贝到hadoop102上。

           [atguigu@hadoop101 /]$ scp -r /opt/module  root@hadoop102:/opt/module

(b)在hadoop103上,将hadoop101服务器上的/opt/module目录下的软件拷贝到hadoop103上。

        [atguigu@hadoop103 opt]$sudo scp -r atguigu@hadoop101:/opt/module root@hadoop103:/opt/module

(c)在hadoop103上操作将hadoop101中/opt/module目录下的软件拷贝到hadoop104上。

           [atguigu@hadoop103 opt]$ scp -r atguigu@hadoop101:/opt/module root@hadoop104:/opt/module

注意:拷贝过来的/opt/module目录,别忘了在hadoop102hadoop103hadoop104上修改所有文件的,所有者和所有者组。sudo chown atguigu:atguigu -R /opt/module

(d)将hadoop101中/etc/profile文件拷贝到hadoop102的/etc/profile上。

          [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop102:/etc/profile

(e)将hadoop101中/etc/profile文件拷贝到hadoop103的/etc/profile上。

          [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop103:/etc/profile

(f)将hadoop101中/etc/profile文件拷贝到hadoop104的/etc/profile上。

           [atguigu@hadoop101 ~]$ sudo scp /etc/profile root@hadoop104:/etc/profile

注意:拷贝过来的配置文件别忘了source一下/etc/profile,。

2.    rsync 远程同步工具

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。

rsyncscp区别:rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。

        (1)基本语法

             rsync    -av       $pdir/$fname              $user@hadoop$host:$pdir/$fname

             命令   选项参数   要拷贝的文件路径/名称    目的用户@主机:目的路径/名称

          选项参数说明

选项

功能

-a

归档拷贝

-v

显示复制过程

(2)案例实操

                (a)把hadoop101机器上的/opt/software目录同步到hadoop102服务器的root用户下的/opt/目录

      [atguigu@hadoop101 opt]$ rsync -av /opt/software/ hadoop102:/opt/software

3.    xsync集群分发脚本

(1)需求:循环复制文件到所有节点的相同目录下

        (2)需求分析:

(a)rsync命令原始拷贝:

          rsync  -av     /opt/module                 root@hadoop103:/opt/

(b)期望脚本:

xsync要同步的文件名称

                c)说明:在/home/atguigu/bin这个目录下存放的脚本,atguigu用户可以在系统任何地方直接执行。

(3)脚本实现

(a)在/home/atguigu目录下创建bin目录,并在bin目录下xsync创建文件,文件内容如下:

[atguigu@hadoop102 ~]$ mkdir bin

[atguigu@hadoop102 ~]$ cd bin/

[atguigu@hadoop102 bin]$ touch xsync

[atguigu@hadoop102 bin]$ vi xsync

在该文件中编写如下代码

#!/bin/bash

#1 获取输入参数个数,如果没有参数,直接退出

pcount=$#

if ((pcount==0)); then

echo no args;

exit;

fi

#2 获取文件名称

p1=$1

fname=`basename $p1`

echo fname=$fname



#3 获取上级目录到绝对路径

pdir=`cd -P $(dirname $p1); pwd`

echo pdir=$pdir



#4 获取当前用户名称

user=`whoami`



#5 循环

for((host=103; host<105; host++)); do

        echo ------------------- hadoop$host --------------

        rsync -av $pdir/$fname $user@hadoop$host:$pdir

done

(b)修改脚本 xsync 具有执行权限

[atguigu@hadoop102 bin]$ chmod 777 xsync

(c)调用脚本形式:xsync 文件名称

[atguigu@hadoop102 bin]$ xsync /home/atguigu/bin

注意:如果将xsync放到/home/atguigu/bin目录下仍然不能实现全局使用,可以将xsync移动到/usr/local/bin目录下。

猜你喜欢

转载自blog.csdn.net/m0_37294838/article/details/89740749