Spark Standalone スタンドアロンモード環境構築

Spark Standalone スタンドアロンモード環境構築

1. 実験環境


  1. JDKバージョン:jdk1.8.0_171
  2. Spark バージョン: 2.1.0、ダウンロード アドレス
  3. Linux オペレーティング システム: CentOS6.5

2. 準備作業


  1. JDKのインストールについては「Hadoop2.7.3環境構築 擬似分散」を参照してください。
  2. Spark インストール パッケージはディレクトリ/ツールにアップロードされています (事前に作成する必要があります)

3. インストールと展開


  1. 解凍してインストール: ツールに移動し、次のコマンドを実行します。
    tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz -C /training/

    注意:由于Spark的脚本命令和Hadoop有冲突,只需在.bash_profile中设置一个即可(不能同时设置)

  2. 構成ファイルを変更します:spark-env.sh (事前に存在しないため、作成またはコピーする必要があります)

    export JAVA_HOME=/home/hadoop/software/jdk
    export SPARK_MASTER_HOST=Master
    export SPARK_MASTER_PORT=7077
    #history 配置历史服务
    export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=30 -Dspark.history.fs.logDirectory=/home/hadoop/software/spark/history"
    
         
         
          
          

      注意:history目录需要事先创建

    • スレーブ ファイルを変更し、localhost をホスト名 Master に変更します。

    • Spark-defaults.conf.template を Spark-defaults.conf にコピーし、次の内容を追加します

      spark.eventLog.enabled           true
      spark.eventLog.dir               /home/hadoop/software/spark/logs
      
           
           
            
            

        注意:logs目录需要事先创建

      • Spark を開始します。インストール ディレクトリの下の sbin ディレクトリに移動し、次のコマンドを実行します。
        ./start-all.sh

      • Spark 履歴サービスを開始します。インストール ディレクトリの下の sbin ディレクトリに移動し、次のコマンドを実行します。
        start-history-server.sh

      • SparkUI にアクセスしてください: http://niit-master:8080
        ここに画像の説明を挿入します

      • Spark 履歴サービスにアクセスしてください: http://niit-master:18080
        ここに画像の説明を挿入します

      Spark Standalone スタンドアロンモード環境構築

      1. 実験環境


      1. JDKバージョン:jdk1.8.0_171
      2. Spark バージョン: 2.1.0、ダウンロード アドレス
      3. Linux オペレーティング システム: CentOS6.5

      2. 準備作業


      1. JDKのインストールについては「Hadoop2.7.3環境構築 擬似分散」を参照してください。
      2. Spark インストール パッケージはディレクトリ/ツールにアップロードされています (事前に作成する必要があります)

      3. インストールと展開


      1. 解凍してインストール: ツールに移動し、次のコマンドを実行します。
        tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz -C /training/

        注意:由于Spark的脚本命令和Hadoop有冲突,只需在.bash_profile中设置一个即可(不能同时设置)

      2. 構成ファイルを変更します:spark-env.sh (事前に存在しないため、作成またはコピーする必要があります)

        export JAVA_HOME=/home/hadoop/software/jdk
        export SPARK_MASTER_HOST=Master
        export SPARK_MASTER_PORT=7077
        #history 配置历史服务
        export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=30 -Dspark.history.fs.logDirectory=/home/hadoop/software/spark/history"
        
             
             
            
            

          注意:history目录需要事先创建

        • スレーブ ファイルを変更し、localhost をホスト名 Master に変更します。

        • Spark-defaults.conf.template を Spark-defaults.conf にコピーし、次の内容を追加します

          spark.eventLog.enabled           true
          spark.eventLog.dir               /home/hadoop/software/spark/logs
          
               
               
              
              

            注意:logs目录需要事先创建

          • Spark を開始します。インストール ディレクトリの下の sbin ディレクトリに移動し、次のコマンドを実行します。
            ./start-all.sh

          • Spark 履歴サービスを開始します。インストール ディレクトリの下の sbin ディレクトリに移動し、次のコマンドを実行します。
            start-history-server.sh

          • SparkUI にアクセスしてください: http://niit-master:8080
            ここに画像の説明を挿入します

          • Spark 履歴サービスにアクセスしてください: http://niit-master:18080
            ここに画像の説明を挿入します

          おすすめ

          転載: blog.csdn.net/weixin_41786879/article/details/126290702