Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

アクセススパークの公式サイト、インストールプロセスのスパークを読んでは、使用のHadoopにスパーク必要性を発見した、JavaのJDKは、当然のことながら、公式サイトも無料のHadoopのバージョンを提供します。この記事では、スパークのスタンドアロンインストールの段階的な完了を始めたのJava JDKのインストールからです。

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

1、JavaのJDK8のインストール

https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

ここでは/ opt / javaのディレクトリにダウンロードした後の次のディレクトリにパッケージ、

コマンドを使用します。tar -zxvf JDK-8u231-のlinux-x64.tar.gz解凍

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

設定ファイルは/ etc / profileを変更し、コマンドを使用します:sudoのナノ/ etc / profileを

ファイル(特定のパスベースの環境)の最後に以下を追加します。

輸出JAVA_HOME =は/ opt / javaの/ jdk1.8.0_231
輸出JRE_HOME =は/ opt / javaの/ jdk1.8.0_231 / JRE
の$ PATH:= $ {JAVA_HOME} / binに輸出PATH

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

保存して終了は、端末インタフェースでコマンドを使用します。ソースは/ etc / profileを設定ファイルを有効にします。

使用Javaはインストールが成功したエコー以下のインストールを確認します-version。

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

2、Hadoopののインストール

バージョンを選択ここでは、公式サイトhttps://hadoop.apache.org/releases.htmlダウンロードのHadoopに行く2.7.7

http://www.apache.org/dist/hadoop/core/hadoop-2.7.7/hadoop-2.7.7.ta​​r.gz

sshの秘密の着陸や他の機能を避けるため、SSHをインストールするためのHadoopの必要性。

コマンドを使用します。

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

ディレクトリにダウンロードパッケージ、ここでは/ opt / Hadoopの

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

タール-zxvfのHadoop-2.7.7.ta​​r.gz解凍:コマンドを使用します。

ここで、擬似分散インストールを選択した(疑似分散)

サブディレクトリ解凍したディレクトリ内のファイルを変更するなど/ Hadoopの/ hadoop-env.sh、下に示すように、本機のパスを変更するにはJAVA_HOME JAVA_HOMEパス:

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

Hadoopの設定環境変数

コマンドを使用します。

次の行を追加します。

輸出HADOOP_HOME =は/ opt / Hadoopの/ Hadoopの-2.7.7

PATH変数を変更し、Hadoopのにbinディレクトリを追加

$ {HADOOP_HOME} / binに:$ PATH = $ {JAVA_HOME} / binに輸出PATH

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

ディレクトリ修飾減圧/ Hadoopの/コア-site.xmlの下などのサブディレクトリ

<設定>
    <プロパティ>
        <名前> fs.defaultFS </名前>
        <値> HDFS:// localhostを:9000 </ value>の
    </ property>の
</設定>

図は次のとおりです。

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

解凍/ Hadoopの/ HDFS-site.xmlの修正ディレクトリの下などのサブディレクトリ

<構成>
    <プロパティ>
        <名前> dfs.replication </名前>
        <値> 1 </値>
    </ property>の
</構成>

図は次のとおりです。

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

セット無料秘密の着陸

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

コマンドを使用します:ログインショーの成功にパスワードを入力する必要がない場合はssh localhostの検証は、成功しています。

 *ドキュメント:https://help.ubuntu.com
 *管理:https://landscape.canonical.com
 *サポート:https://ubuntu.com/advantage


 *正規Livepatchは、インストールのために利用可能です。
  -システムが再起動を削減し、カーネルのセキュリティを向上させます。:で有効に
    https://ubuntu.com/livepatch

188は、パッケージをアップグレードすることができます。
0セキュリティ更新プログラム。

お使いのハードウェアイネーブルメントスタック(HWE)は4月2023年までサポートされている
土11月127.0.0.1から30夜11時25分35秒2019:最終ログイン

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

あなたはHadoopののインストールを確認する必要があります次

、ファイルシステムフォーマット

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

B、および名前ノードデータノードを開始

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

C、アクセスするブラウザのhttp:// localhostを:50070

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

3、Scalaのインストール:

ダウンロードします。https://www.scala-lang.org/download/2.11.8.html

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

/ opt /スカラ座:あなたはへの抽出をダウンロードしたら

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

設定の環境変数:

追加:

輸出SCALA_HOME =は/ opt /スケール/スケール2.11.8

 Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

ソースは/ etc / profile

図4に示すように、スパークをインストール

スパーク火花をダウンロードする公式サイトに行きます

https://spark.apache.org/downloads.html

ここでは、次のようにバージョンを選択します。

火花2.4.4-binの-hadoop2.7

ディレクトリへのスパーク、ここでは/ opt /火花

コマンドを使用します。火花2.4.0ビンhadoop2.7.tgz -zxvfタール - 解凍

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

インストールの./bin/run-example SparkPi 10テストスパーク:コマンドを使用します。

設定環境変数SPARK_HOME

輸出SPARK_HOME =は/ opt /スパーク/スパーク-2.4.4-ビンhadoop2.7の
輸出PATH = $ {JAVA_HOME} / binに:$ {HADOOP_HOME} / binに:$ {SPARK_HOME} / binに:$ PATHに

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

ソースは/ etc / profile

設定spark-env.sh

スパークに/ confに/

sudoのcpは/opt/spark/spark-2.4.4-bin-hadoop2.7/conf/spark-env.sh.template /opt/spark/spark-2.4.4-bin-hadoop2.7/conf/spark-env .SH

輸出JAVA_HOME =は/ opt / javaの/ jdk1.8.0_231
輸出HADOOP_HOME =は/ opt / Hadoopの/ Hadoopの-2.7.7
輸出HADOOP_CONF_DIR =は/ opt / Hadoopの/ Hadoopの-2.7.7の/ etc / Hadoopの
輸出SPARK_HOME =は/ opt /火花/火花2.4.4-ビンhadoop2.7
エクスポートSCALA_HOME = / OPT /スカラ/スカラ-2.11.8
輸出SPARK_MASTER_IP = 127.0.0.1
エクスポートSPARK_MASTER_PORT = 7077
輸出SPARK_MASTER_WEBUI_PORT = 8099
輸出SPARK_WORKER_CORES = 3
輸出SPARK_WORKER_INSTANCES = 1
輸出SPARK_WORKER_MEMORY = 5G
エクスポートSPARK_WORKER_WEBUI_PORT = 8081
輸出SPARK_EXECUTOR_CORES = 1
輸出SPARK_EXECUTOR_MEMORY = 1G
輸出LD_LIBRARY_PATH = $ {LD_LIBRARY_PATH}:$ HADOOP_HOMEは/ LIB /ネイティブ

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

Javaの、Hadoopの、その実際の環境設定に応じて、他の特定のパス。

スタートbinディレクトリで火花シェル

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

私は、あなたがそれのためにコードを書くことができ、Scalaの環境を締結している見ることができます。

火花シェルのウェブインタフェースhttp://127.0.0.1:4040

Hadoopのビルドをスタンドアロンクラスタ環境のUbuntu 18.04にスパーク

何か質問がある場合はこれが最初であること、のLinuxコミューン下のコメント欄にお問い合わせください。

おすすめ

転載: www.linuxidc.com/Linux/2019-12/161628.htm
おすすめ