Spark环境搭建之Standalone-HA

文章目录

原理

在这里插入图片描述

操作

  1. 启动zk
  2. 修改配置
    vim /export/server/spark/conf/spark-env.sh

注释:#SPARK_MASTER_HOST=node01
增加:
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=node01:2181,node02:2181,node03:2181 -Dspark.deploy.zookeeper.dir=/spark-ha"

  1. 分发配置
cd /export/server/spark/conf

scp -r spark-env.sh root@node02:$PWD

scp -r spark-env.sh root@node03:$PWD

测试

  1. 启动zookeeper服务
zkServer.sh status

zkServer.sh stop

zkServer.sh start
  1. node01上启动Spark集群执行
    /export/server/spark/sbin/start-all.sh

  2. 在node02上再单独只起个master
    /export/server/spark/sbin/start-master.sh

  3. 查看WebUI
    http://node01:8080/
    在这里插入图片描述
    http://node02:8080/
    在这里插入图片描述

  4. 模拟node01宕机

jps

kill -9 进程id

6.再次查看web-ui
http://node01:8080/
在这里插入图片描述
http://node02:8080/
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/zh2475855601/article/details/114885419