必要なvmware15 Centos6.5 xhell xftpメモ帳++ツール
数ペンギン:1550213743
マイクロブログ:Nym_チェリーが
編集1.構築された仮想マシンをクリックします-仮想ネットワークエディタVMnet8のサブネットIPを観察し、我々は192.168.xxxの後ろにいることを忘れてはなりません便利な
2.仮想マシンのIP手順を変更します。右上隅の1つの右のコンピュータのアイコンは、eth0のはIPv4を選択するようにシステムを変更2.edit追加手動で変更
(ここでは上記の対応XXXを追加すること自体がフリーになった)192.168.xxx.xxxを。
3.オープンAコマンドウィンドウをbaidu.comピング
4.次に、xhellを開いて、xftp接続(自分のBaiduのを接続する方法がわからない場合)ソフトウェアおよびモジュールのフォルダを作成し、パーミッションを変更、Hadoopのは、JDKパッケージはちょうど良いソフトウェアを作成して可決しました。モジュールファイルに解凍
解凍
5.設定ファイルのJDK
二行(一貫性のあるパスおよびI)を追加最下位の入力した後
pwdのクエリの下にパス法のjdk1.7.0-67にチェックイン
6.クエリ過剰JDK削除
7.閉じるファイアウォール(ステータスを参照)は
、ブート自動的にシャットダウンを変更8. 変更に無効への出口を保存し
9.reboot再起動
10.viの/ etc /のsysconfig /ネットワーク-スクリプト/のifcfg-eth0を( その後、オフに入った後、仮想マシンを再起動staticとして格納されているブートが自動的にネットワークを変更する)、ログアウト、再起動サービスネットワークを
選択した10個のクローン-完全なクローン2、IP 192.168.xxx.xxxすべての修正後のクローンは、異なっている
11.修正ホスト名(カスタム)とを参照してください
viのは/ etc / sysconfig / networkファイル
猫の/ etc / hosts
- 変更ネットワークカード
MVの/ etc /のsysconfig /ネットワーク-スクリプト/のifcfg-Auto_eth1 / etc / sysconfig / network-scriptsに/のifcfg-eth0の
viのは/ etc /のsysconfig /ネットワーク-スクリプト/のifcfg-eth0をなしに静的
なし静的変わる二つのコマンドの敗者
-サービスネットワークは、再起動ネットワークの再起動
、再起動、仮想マシンを再起動
13. VIは、/ etc / ssh / sshd_config
に:セット数
47.48.49は、削除#
14無料機密ログインのssh-keygenは-t rsaの3を入力しノック
スレーブサーバ/root/.sshへのknown_hosts、マスターサーバー/root/.ssh/ディレクトリのauthorized_keysに15コピーをディレクトリ
19は、2つのノードの下にHadoopを削除するには、
20のvim〜/ .bash_profileのに数行追加
に成功した構成
21は、全体のHadoopを動かすのは良い仕事を行うには、ルートフォルダにディレクトリを作成し、/ホーム/ Hadoopの/
22.始まり設定ファイルは、オリジナルの一時ファイルの削除
23.オープンメモ帳を++、接続メモ帳++インストールアドレス
構成ごとに設定ファイルを開くための24
の最初の4つに対応し、マスターに貼り付けるには、あなたのホスト名を変更しました
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131702</value>
</property>
</configuration>
あなたのホスト名へのマスター
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.permissions.enable</name>
<value>false</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
あなたのホスト名へのマスター
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
</configuration>
あなたのホスト名へのマスター
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
</configuration>
3を添加し、JDKパス
輸出JAVA_HOME = / OPT /モジュール/ jdk1.7.0_67
れる良好出口のために変更した後保存した
二つのサブマスターの他のノードに複製ノード
SCP -R&LT /ホーム/ Hadoopのxyj1:/ホーム/
SCP - R /ホーム/ Hadoopのxyj2:/ホーム/
[スタート]、[OK]