完全分散型クラスタ構造をHadoopの(ゼロ白からオフに)最も詳細な!

必要なvmware15 Centos6.5 xhell xftpメモ帳++ツール
数ペンギン:1550213743
マイクロブログ:Nym_チェリーが
編集1.構築された仮想マシンをクリックします-仮想ネットワークエディタVMnet8のサブネットIPを観察し、我々は192.168.xxxの後ろにいることを忘れてはなりません便利なここに画像を挿入説明ここに画像を挿入説明
2.仮想マシンのIP手順を変更します。右上隅の1つの右のコンピュータのアイコンは、eth0のはIPv4を選択するようにシステムを変更2.edit追加手動で変更
(ここでは上記の対応XXXを追加すること自体がフリーになった)192.168.xxx.xxxを。
ここに画像を挿入説明
3.オープンAコマンドウィンドウをbaidu.comピング
4.次に、xhellを開いて、xftp接続(自分のBaiduのを接続する方法がわからない場合)ソフトウェアおよびモジュールのフォルダを作成し、パーミッションを変更、Hadoopのは、JDKパッケージはちょうど良いソフトウェアを作成して可決しました。モジュールファイルに解凍
ここに画像を挿入説明
解凍ここに画像を挿入説明
5.設定ファイルのJDK

ここに画像を挿入説明
二行(一貫性のあるパスおよびI)を追加最下位の入力した後
pwdのクエリの下にパス法のjdk1.7.0-67にチェックインここに画像を挿入説明ここに画像を挿入説明
6.クエリ過剰JDK削除
ここに画像を挿入説明
7.閉じるファイアウォール(ステータスを参照)はここに画像を挿入説明
、ブート自動的にシャットダウンを変更8. ここに画像を挿入説明変更に無効への出口を保存しここに画像を挿入説明
9.reboot再起動
10.viの/ etc /のsysconfig /ネットワーク-スクリプト/のifcfg-eth0を( その後、オフに入った後、仮想マシンを再起動staticとして格納されているブートが自動的にネットワークを変更する)、ログアウト、再起動サービスネットワークをここに画像を挿入説明
選択した10個のクローン-完全なクローン2、IP 192.168.xxx.xxxすべての修正後のクローンは、異なっている
11.修正ホスト名(カスタム)とを参照してください

viのは/ etc / sysconfig / networkファイル

猫の/ etc / hosts

  1. 変更ネットワークカード
    MVの/ etc /のsysconfig /ネットワーク-スクリプト/のifcfg-Auto_eth1 / etc / sysconfig / network-scriptsに/のifcfg-eth0の

viのは/ etc /のsysconfig /ネットワーク-スクリプト/のifcfg-eth0をなしに静的
なし静的変わる二つのコマンドの敗者ここに画像を挿入説明
-サービスネットワークは、再起動ネットワークの再起動
、再起動、仮想マシンを再起動
13. VIは、/ etc / ssh / sshd_config
に:セット数
47.48.49は、削除#
14無料機密ログインのssh-keygenは-t rsaの3を入力しノックここに画像を挿入説明
スレーブサーバ/root/.sshへのknown_hosts、マスターサーバー/root/.ssh/ディレクトリのauthorized_keysに15コピーをディレクトリここに画像を挿入説明ここに画像を挿入説明ここに画像を挿入説明ここに画像を挿入説明
19は、2つのノードの下にHadoopを削除するには、ここに画像を挿入説明
20のvim〜/ .bash_profileのに数行追加ここに画像を挿入説明
に成功した構成ここに画像を挿入説明
21は、全体のHadoopを動かすのは良い仕事を行うには、ルートフォルダにディレクトリを作成し、/ホーム/ Hadoopの/ ここに画像を挿入説明ここに画像を挿入説明
22.始まり設定ファイルは、オリジナルの一時ファイルの削除ここに画像を挿入説明
23.オープンメモ帳を++、接続メモ帳++インストールアドレス
構成ごとに設定ファイルを開くための24 ここに画像を挿入説明
の最初の4つに対応し、マスターに貼り付けるには、あなたのホスト名を変更しました

 <configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/tmp</value>
    </property>
    <property>
         <name>io.file.buffer.size</name>
         <value>131702</value>
     </property>
 </configuration>

あなたのホスト名へのマスター

 <configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/home/hadoop/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/home/hadoop/dfs/data</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
</property>
     <property>
         <name>dfs.permissions.enable</name>
         <value>false</value>
     </property>
     <property>
         <name>dfs.namenode.secondary.http-address</name>
         <value>master:9001</value>
     </property>
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
    </property>
 </configuration>

あなたのホスト名へのマスター

 <configuration>
     <property>
         <name>mapreduce.framework.name</name>
         <value>yarn</value>
     </property>
     <property>
         <name>mapreduce.jobhistory.address</name>
         <value>master:10020</value>
     </property>
 </configuration>


あなたのホスト名へのマスター



<configuration>
     <property>
         <name>yarn.nodemanager.aux-services</name>
         <value>mapreduce_shuffle</value>
     </property>
     <property>
         <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
         <value>org.apache.hadoop.mapred.ShuffleHandler</value>
     </property>
     <property>
         <name>yarn.resourcemanager.address</name>
         <value>master:8032</value>
     </property>
 </configuration>


3を添加し、JDKパス
輸出JAVA_HOME = / OPT /モジュール/ jdk1.7.0_67 ここに画像を挿入説明
れる良好出口のために変更した後保存した
二つのサブマスターの他のノードに複製ノード
SCP -R&LT /ホーム/ Hadoopのxyj1:/ホーム/
SCP - R /ホーム/ Hadoopのxyj2:/ホーム/

[スタート]、[OK]
ここに画像を挿入説明

リリース3元の記事 ウォンの賞賛9 ビュー1950

おすすめ

転載: blog.csdn.net/weixin_44625302/article/details/104788974