Hadoop2 インストールプロセスの詳細な手順


1. vmware で仮想マシンのネットワーク タイプを変更します --> NAT モード (仮想スイッチの IP は、vmvare の編集 --> 仮想ネットワーク エディタから確認できます) 2.このスイッチのアドレスに従って(ゲートウェイ)、クライアント Windows 7 (Vmnet8 ネットワーク カード) の IP アドレスを設定しましょう
3. Linux ホストを起動し、Linux システムの IP アドレスを変更し (グラフィカル インターフェイスを介して変更します)、変更が完了したら、端末 (コマンド ライン ターミナル) で root ユーザーに切り替えて実行します ネットワーク サービスを再起動して IP を有効にするコマンド 4.
ホスト名を変更します: root ID で、コマンドを使用して vi /etc/sysconfig を変更します/network に移動し、ホスト名を yun-10-1 に変更します。
5. ルート ID の下にホスト名と IP の間のマッピングを追加します。 vi /etc/hosts 行 192.168.2.100 yun-10-1 を追加します。 6.
Hadoop ユーザーを次の場所に追加します。 sudoers および vi /etc/sudoers を root として実行します。ファイル内で root ALL=ALL ALL を見つけ、以下の行 hadoop を追加します。 7.
ファイアウォール サービスを停止します。サービス iptables を root として停止します。
8. ファイアウォールの自動起動をオフにします。 chkconfig iptables off as root.
9. 再起動
10. ping コマンドを使用して、Windows ホストと Linux サーバー間のネットワーク接続を確認します.
11. Linux を起動して、グラフィカル インターフェイスのスタートアップ構成を変更します. グラフィカル インターフェイスを再度起動しないでください。ルート ID の場合、vi /etc/inittab は id:3:initdefault に変更します。
12. もう一度再起動すると、グラフィカル インターフェイスを起動できなくなります 
(今後グラフィカル インターフェイスを開始したい場合は、コマンド ラインで startx (init 5) と入力できます。グラフィカル インターフェイスを閉じたい場合は、グラフィカル インターフェイスで、コマンド init を入力します 3)

===========ゴージャスな分割ライン==============================

1/ターミナルを使用して Linux サーバーに接続し、ソフトウェアをインストールします (接続には secureCRT を使用します)
2/jdk をインストールします
    - filezilla ツールを使用して jdk 圧縮パッケージをアップロードします
    - jdk 圧縮パッケージを特別なインストール ディレクトリ /home/ に解凍しますhadoop/app
    -- hadoop のメイン ディレクトリにコマンドを入力します。  

tar -zxvf jdk-7u65-linux-i586.tar.gz -C ./app

    -- Java 環境変数 sudo vi /etc/profile を設定し
              、ファイルの末尾に追加します。

            export JAVA_HOME=/home/hadoop/app/jdk1.7.0_65
            export PATH=$PATH:$JAVA_HOME/bin

3/設定を有効にし、ソース /etc/profile

===========クールな分割線=============================

1/filezilla ツールを使用して、Hadoop インストール パッケージをアップロードします。
2/Hadoop をアプリ ディレクトリに抽出します。  

tar -zxvf hadoop-2.4.1.tar.gz -C ./app/


3//home/hadoop/app/hadoop-2.4.1/etc/hadoop ディレクトリにある Hadoop の 5 つの主要な構成ファイルを変更します
(vi hadoop-env.sh)。JAVA_HOME を jdk をインストールするパスに変更します。

JAVA_HOME=/home/hadoop/app/jdk1.7.0_65

-- vi コアサイト.xml   
 

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://yun-10-1:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/app/hadoop-2.4.1/tmp</value>
    </property>
</configuration>

-- vi hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>


-- 最初にファイル名 mv mapred-site.xml.template mapred-site.xml を変更し
   、次に vi mapred-site.xml を編集します。

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>


-- vi 糸サイト.xml

<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>yun-10-1</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>



4/Hadoop sudo vi /etc/profileの環境変数を設定します。

=============美しい分割線====================

1/シークレットレス ログインの設定。
まずクライアント ssh-keygen -t rsa でキー ペアを生成し、Enter キーを押します。次に、
クライアントの公開キーをリモート ssh-copy-id desthost にコピーします。

=========完璧な分割線========Hadoop のインストールが完了========

学習資料をダウンロード:

Hadoop-HDFS-Shell-学習資料とドキュメント、Java コード

おすすめ

転載: blog.csdn.net/caryxp/article/details/133513130