程序如下:
#!/bin/bash
#首先启动HDFS,把这个目录/root/hadoop/bin/换成你自己的hadoop启动程序
#目录
source /etc/profile;/root/hadoop/sbin/$1-dfs.sh
sleep 2
#启动spark,把这个目录/root/bigdata/spark-2.2.0-bin-hadoop2.7/sbin/换成你
#自己的spark启动程序目录
source /etc/profile;/root/bigdata/spark-2.2.0-bin-hadoop2.7/sbin/$1-all.sh
sleep 2
#启动spark第二个master节点,把这个目录/root/bigdata/spark-2.2.0-bin-#hadoop2.7/sbin/换成你自己的spark启动程序目录,slave1换成你第二个节点
#的主机名或者IP,如果没有第二个节点就不用管了
ssh slave1 "source /etc/profile;/root/bigdata/spark-2.2.0-bin-hadoop2.7/sbin/$1-master.sh"
把这个程序放到记事本里面,然后保存命名为 sparkmanage.sh,后上传到任意一台linux机器上即可。
执行的方法:
启动Spark: ./sparkmanage.sh start
关闭Spark: ./sparkmanage.sh stop
———————————————
如果对我的课程感兴趣的话,欢迎关注小木希望学园-微信公众号:
mutianwei521
也可以扫描二维码哦!