小木大数据-懒人包,一键启动Spark

程序如下:


#!/bin/bash

#首先启动HDFS,把这个目录/root/hadoop/bin/换成你自己的hadoop启动程序

#目录

source /etc/profile;/root/hadoop/sbin/$1-dfs.sh

sleep 2

#启动spark,把这个目录/root/bigdata/spark-2.2.0-bin-hadoop2.7/sbin/换成你

#自己的spark启动程序目录

source /etc/profile;/root/bigdata/spark-2.2.0-bin-hadoop2.7/sbin/$1-all.sh

sleep 2

#启动spark第二个master节点,把这个目录/root/bigdata/spark-2.2.0-bin-#hadoop2.7/sbin/换成你自己的spark启动程序目录,slave1换成你第二个节点

#的主机名或者IP,如果没有第二个节点就不用管了

ssh slave1 "source /etc/profile;/root/bigdata/spark-2.2.0-bin-hadoop2.7/sbin/$1-master.sh"


把这个程序放到记事本里面,然后保存命名为 sparkmanage.sh,后上传到任意一台linux机器上即可。

执行的方法:

启动Spark: ./sparkmanage.sh start

关闭Spark: ./sparkmanage.sh stop

———————————————

如果对我的课程感兴趣的话,欢迎关注小木希望学园-微信公众号: 

mutianwei521

也可以扫描二维码哦!


猜你喜欢

转载自blog.csdn.net/u013631121/article/details/81039251