成功启动spark集群程序,使用多台电脑进行计算

单独启动spark集群(不启动hadoop集群)

start-spartk-all.sh

spark-submit --class org.apache.spark.examples.JavaSparkPi --master spark://master001:7077 /usr/spark/spark-2.4.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.4.0.jar 1

slave主机的资源使用情况变化(相隔2s左右)

master主机的资源使用情况

以前启动程序运行,总发现slave资源使用情况没有变化 ,今天总算 放心了 

猜你喜欢

转载自blog.csdn.net/ningyanggege/article/details/86655455