スタンドアロン-HAはSpark環境に組み込まれています

記事のディレクトリ

原理

ここに画像の説明を挿入

オペレーティング

  1. zkを開始します
  2. 設定を変更する
    vim /export/server/spark/conf/spark-env.sh

注释:#SPARK_MASTER_HOST = node01
增加:
SPARK_DAEMON_JAVA_OPTS = "-Dspark.deploy.recoveryMode = ZOOKEEPER -Dspark.deploy.zookeeper.url = node01:2181、node02:2181、node03:2181 -Dspark.deploy.zookeeper.dir = / spark -は」

  1. 配布構成
cd /export/server/spark/conf

scp -r spark-env.sh root@node02:$PWD

scp -r spark-env.sh root@node03:$PWD

テスト

  1. Zookeeperサービスを開始します
zkServer.sh status

zkServer.sh stop

zkServer.sh start
  1. node01でSparkクラスターの実行を開始します
    /export/server/spark/sbin/start-all.sh

  2. node02でのみマスターを個別に開始します
    /export/server/spark/sbin/start-master.sh

  3. WebUIを表示
    http://node01:8080/
    ここに画像の説明を挿入
    http://node02:8080/
    ここに画像の説明を挿入

  4. node01のダウンタイムをシミュレートする

jps

kill -9 进程id

6.web-uiをもう一度表示します
http://node01:8080/
ここに画像の説明を挿入
http://node02:8080/
ここに画像の説明を挿入

おすすめ

転載: blog.csdn.net/zh2475855601/article/details/114885419