Hadoopビッグデータプラットフォーム構築(超詳細手順)

関連ソフトウェアのダウンロード リンク:

Xshell:家庭/学校向け無料 - NetSarang ウェブサイト

Xftp:家庭/学校向け無料 - NetSarang ウェブサイト

Xshell および Xftp 公式 Web サイト: XSHELL - NetSarang Website

Jdk: Baidu ネットワーク ディスク、抽出コードを入力してください  抽出コード: jdhp

Hadoop: Baidu ネットワーク ディスク、抽出コードを入力してください   抽出コード: jdhp

適切な仮想マシンと関連環境を構成する必要がある場合は、私の記事をクリックして入手できます: Hadoop ビッグ データ プラットフォーム構築環境は仮想マシン関連の構成を提供します

1. 元の仮想マシンに基づいて 2 つの仮想マシンのクローンを作成します。

       (1) 仮想マシンを右クリックし、[管理]、[クローン] の順にクリックし、この手順を 2 回繰り返します。

(2) クローン作成したマシンの IP アドレスが元の仮想マシンの IP アドレスと異なっているかを確認し、異なる場合は変更する必要がありますが、IP アドレスはクローン作成時に自動的に変更されるため、変更する必要はありませんそれを修正します。

2. マシン名の変更

       (1) 下図の赤矢印部分に変更後の名前を入力します:stu2

コマンド: vi /etc/ホスト名

       (2) 他の 2 つの仮想マシンに対しても同じことを行います。

       (3) 3台の仮想マシンを再起動します。

コマンド: 再起動

              変更後の 3 つの仮想マシンの名前は、stu、stu2、stu3 になります。

3. ファイアウォールをオフにする

       (1) ファイアウォールが閉じられているか確認する

     

              元の仮想マシンのファイアウォールがオフになっているため、他の 2 つのクローンのファイアウォールもオフになります。

       4. パスワードなしでログインできるように 3 つのホストを構成する

       (1) まず、stu (stu2、stu3) で ssh キーを生成します。

              コマンド: ssh-keygen -t rsa  

Enter キーを押します。次のプロンプトで Enter キーを押し続けます。内容を入力する必要はありません。

スチュ:

部屋2:

stu3:

次の 2 つの主要なファイルが、ホーム ディレクトリの .ssh ディレクトリに表示されます。

スチュ:

部屋2:

stu3:

       (2) stu (stu2、stu3) マシンで、ディレクトリを .ssh ディレクトリに切り替えます。

              コマンド: cd ~/.ssh

       (3) 新しいauthorized_keysファイルを.sshディレクトリに作成します。

              コマンド: touchauthorized_keys

       (4) id_rsa.pubファイルの内容をauthorized_keysファイルにコピーします。

              コマンド: cat id_rsa.pub >>authorized_keys

       (5)authorized_keysファイルの内容を確認する

              命令:cat authorized_keys

             

       (6) stu の .ssh ディレクトリにあるauthorized_keys ファイルを stu2 の対応するディレクトリに送信します。

              コマンド: scp allowed_keys 192.168.80.129:$PWD

              プロンプトの後に「yes」と入力し、Enter キーを押します

              次に、パスワードを入力して Enter を押して転送を完了します

       (7) stu2 マシンに切り替えて、~/.ssh ディレクトリに入ります。

              コマンド: cd ~/.ssh

       (8) stu2 の .ssh ディレクトリにある id_rsa.pub ファイルの内容を、authorized_keys ファイルにコピーします。

コマンド: cat id_rsa.pub >>authorized_keys

(9) stu2 の .ssh ディレクトリにあるauthorized_keys ファイルを stu3 の対応するディレクトリに送信します。

コマンド: scp allowed_keys 192.168.80.130:$PWD

プロンプトで「yes」と入力し、Enter キーを押し、パスワードを入力します

       (10) stu3 マシンに切り替え、~/.ssh ディレクトリに入ります。

コマンド: cd ~/.ssh

(11) stu3 の .ssh ディレクトリにある id_rsa.pub ファイルの内容を、authorized_keys ファイルにコピーします。

コマンド: cat id_rsa.pub >>authorized_keys

(12) stu3 の .ssh ディレクトリにあるauthorized_keys ファイルを stu1 と stu2 に返します。

コマンド: scp allowed_keys 192.168.80.128:$PWD

scp 認可キー 192.168.80.129:$PWD

       (13) 検証(stu上)

コマンド: ssh 192.168.80.130

             

       5. ホスト名と IP アドレス間のマッピングを確立します。

       (1) /etc/hosts ファイルを開きます(stu 上)

コマンド: vi /etc/hosts

ファイルに以下を追加します。

192.168.80.128 stu

192.168.80.129 stu2

192.168.80.130 stu3

変更後、ESC キーを押して保存し、終了します。

       (2) stu上の/etc/hostsファイルをstu2とstu3にそれぞれ配布します。

コマンド: scp /etc/hosts 192.168.180.129:/etc/

scp /etc/hosts 192.168.180.130:/etc/

(3) 検証、stu 上で stu2 および stu3 に ping

コマンド: ping 192.168.80.129

コマンド: ping 192.168.80.130

6. JDK をインストールします (3 台のマシンすべてに JDK をインストールする必要があります。例として stu を取り上げます。他の 2 つの操作は同じです)。

(1) まずシステムにJDKが付属しているかどうかを確認してください

       コマンド: rpm -qa | grep jdk

        

(2) xftp ソフトウェアを使用して、Linux のユーザーのホーム ディレクトリに jdk をアップロードします。

       (3) ルートディレクトリ直下にサーバソフトウェアのサービスディレクトリを作成します。

              コマンド: mkdir -p /exports/servers

       (4) ホームディレクトリにあるjdkを/exports/serversディレクトリに解凍します。

コマンド: tar -zxvf jdk-11.0.7_linux-x64_bin.tar.gz -C /exports/servers

       (5) /exports/serversディレクトリに解凍されたファイルがあるか確認する

              コマンド: ls /exports/servers

             

       (6) 環境変数の設定

              1) JDKのルートディレクトリをコピーし、ディレクトリをJDKのルートディレクトリに切り替えます

コマンド: cd /exports/servers/jdk-11.0.7/

2) 表示されたパスをコピーします

              コマンド: pwd

3) 環境変数設定ファイルを開きます

コマンド: vi /etc/profile

4) ファイルの末尾に以下を追加します。

エクスポート JAVA_HOME=/exports/servers/jdk-11.0.7

エクスポート PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin

5) 保存して終了

      

(6) 設定ファイルを再起動し、環境変数が正しく設定されているかどうかを確認します。

命令:source /etc/profile

コマンド: java -version

(7) stu の /exports ディレクトリの内容をそれぞれ stu2 と stu3 に転送します。

コマンド: scp -r /exports stu2:/

scp -r /エクスポート stu3:/

       (8) stu 上の /etc/profile 環境変数設定ファイルをそれぞれ stu2 と stu3 に送信します。

命令:scp /etc/profile stu2:/etc/

scp /etc/profile stu3:/etc/

(9) stu2とstu3でそれぞれsource /etc/profileコマンドを実行します。

(10) stu2 と stu3 の環境変数が正しく設定されているかどうかを確認します。

       部屋2:

stu3:

7. Hadoop をインストールします (3 台のマシンすべてに Hadoop をインストールする必要があります。操作は同じです。例として stu 操作を取り上げます)。

(1) 転送ソフトを使用して、hadoop-2.7.2.tar.gzをstuのrootのホームディレクトリにアップロードします。

(2) hadoop-2.7.2.tar.gz を /exports/servers ディレクトリに解凍します。

コマンド: tar -zxvf hadoop-2.7.2.tar.gz -C /exports/servers/

(3) /exports/servers/hadoop-2.7.2 ディレクトリに切り替えます。

コマンド: cd /exports/servers/hadoop-2.7.2

(4) Hadoopのルートディレクトリ下に新しいdataディレクトリを作成します。

コマンド: mkdir データ

(5) Hadoopの設定

etc/hadoop ディレクトリに入ります。

コマンド: cd /exports/servers/hadoop-2.7.2/etc/hadoop/

このディレクトリを順番に変更します: hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、およびスレーブ ファイル:

  • 主に JAVA_HOME を構成する hadoop-env.sh ファイルを変更します。

コマンド: vi hadoop-env.sh

  • core-site.xmlを変更する

コマンド: vi core-site.xml

  • hdfs-site.xmlを変更する

コマンド: vi hdfs-site.xml

  • mapred-site.xml ファイルを変更する
  • Hadoop には、mapred-site.xml ファイルがありません。mapred-site.xml.template ファイルを mapred-site.xml に変更する必要があります。

コマンド:cpmapred-site.xml.templatemapred-site.xml

mapred-site.xml ファイルを開きます

コマンド: vi mapred-site.xml

  • yarn-site.xmlを変更する

コマンド: vi 糸-サイト.xml

  • スレーブファイルを設定する

コマンド: vi スレーブ

localhost を削除し、次の内容をファイルに追加します。

スチュ

stu2

stu3

  • Hadoop ルート ディレクトリの bin にあるコマンドをシステム PATH に追加します。

コマンド: vi /etc/profile

以下を追加します

最終的なファイルは次のとおりです。

エクスポート HADOOP_HOME=/exports/servers/hadoop-2.7.2

エクスポート PATH=$PATH:$HADOOP_HOME/bin

  • ハドゥープを検証する

命令:hadoop version

次のインターフェイスが表示され、hadoop コマンドの環境変数の設定が成功したことがわかります。

  • /exports/servers の下の hadoop-2.7.2 ディレクトリの内容を stu2 および stu3 にコピーします。

コマンド:scp -r /exports/servers/ hadoop-2.7.2/ stu2:/exports/servers/

scp -r /exports/servers/ hadoop-2.7.2/ stu3:/exports/servers/

  • stu の /etc/profile ファイルを stu2 と stu3 にコピーします。

命令:scp /etc/profile stu2:/etc/

scp /etc/profile stu3:/etc/

stu2 と stu3 でそれぞれコマンドを実行します。source /etc/profile、環境変数がすぐに有効になります。

8. Hadoop クラスターを起動して確認します。

(1) namenodeのフォーマット(stu上で実行)

コマンド: hadoop namenode -format

                    

(2) クラスタの起動(stu上で実行)

ディレクトリを hadoop の sbin ディレクトリに変更します。

コマンド: cd /exports/servers/hadoop-2.7.2/sbin/

コマンドを実行します: ./start-dfs.sh

(3) クラスタが正常に起動していることを確認する

コマンド:jps

スチュ:

部屋2:

stu3:

(4)ブラウザを開き、 「http://192.168.80.128:50070/」と入力します。

おすすめ

転載: blog.csdn.net/m0_53209892/article/details/126788997