Hadoopの研究ノート(IX):mr2HA高可用性環境を構築し、ステップで使用します

この記事のオリジナルは、転載の場合は、原作者とのリンクを明記してください

ノードの今の構成

 

 

 

1、糸単一ノード構成管理

我々はmapread-site.xmlに設定する必要があります

以下のようにパラメータを設定し、次のとおりです。
など/ Hadoopの/ mapred- site.xmlの:
#1 mapread-site.xmlの

 <構成> 
    <プロパティ> 
        <名前> mapreduce.framework.name </名前> 
        <値>糸</値> 
    </ property>の
</構成> 
など / Hadoopの/ yarn- site.xmlの:
#和糸-site.xmlの
 <設定> 
    <プロパティ> 
        <名前> yarn.nodemanager.aux-サービス</名前> 
        <値> mapreduce_shuffle </ value>の
    </ property>の
</設定>

図2に示すように、糸管理およびHAの構成

我々は、糸-site.xmlファイルを設定する必要があります

ここでの最小セットアップのサンプルですRMのフェールオーバーが。
<プロパティ> 
   <名前> yarn.resourcemanager.ha.enabled </名前> 
   <値>  </値> 
 </ property>の
 <プロパティ> 
   <名前> yarn.resourcemanager.cluster-ID </名前> 
   <値>クラスタ1 </値> 
 </ property>の
 <プロパティ> 
   <名前> yarn.resourcemanager.ha.rm-IDS </名前> 
   <値> RM1、RM2 </値> 
 </ property>の
 <プロパティ> 
   <名前> yarn.resourcemanager .hostname.rm1 </名前> 
   <値> node03の</ value>の
 </ property>の
 <プロパティ> 
   <名前> yarn.resourcemanager.hostname.rm2 </名前>
   <値> node04 </ value>の
 </ property>の
 <プロパティ> 
   <名前> yarn.resourcemanager.zkアドレス</名前>
   <値>とnode02:2181、node03の:2181、node04:2181 </ value>の
 </プロパティ>

3、それらのいくつかの特定のプロセスノードは、相互の秘密キーログインを達成するために自由に、あなたが鍵を配布するためにお互いにこれらの2つのノードが必要な場所として自ノードResourceManagerに建設されます

node03の

[ルート@ node03の〜]#にssh-keygenは-t dsaを-P '' -fの〜/ .ssh / id_dsaに

自分自身の自由の鍵の実現には、ログインしてください

[ルート@のnode03の〜]#は、CDの.ssh / 
#をLL [ルートの.ssh node03の@] 
总用量20 
-rw-R - r--の1つのルートルート616 9月   23  1135 のauthorized_keysは
 -rw ----- - 1ルートルート672 10月   4  1557 id_dsaに
 -rw-R - r--の1つのルートルート601 10月   4  1557 id_dsa.pub
 -rw-R - r--の1ルートルート171 9月   23  1126 のknown_hosts
 - r--の-rw-rを1ルートルート616 9月   23  1134 node01.pub
 [ルート@のnode03ののの.ssh]#猫id_dsa.pub >> authorized_keysに 

秘密鍵node03のnode04のノードで問題と名前を変更

[ルート@のnode03ののの.ssh]#scpのid_dsa.pub node04: `pwd`は/ node03.pub

に追加のコマンドノードを行った後

[ルート@ node04のの.ssh]#猫node03.pub >> authorized_keysに 

 

同じnode04とnode03の同じコマンドとそれらのを確認するために、node04ファイル追加書類上node03の03キーを発行し、彼の秘密鍵のドキュメント

 

図4に示すように、クラスタのステップを開始します

要約:

開始:node01:

1つのZooKeeperの
 2つの HDFS(使用しないスクリプトがあることに注意してください、[スタート] -すべての)スタート- dfs.sh 
  NNとNN2が起動しない場合は、手動node07開始された、node06を必要とする:
  Hadoopのを - 名前ノードを起動しdaemon.sh    
 3 [スタート] - yarn.sh(ノードマネージャを起動します)
 4、それぞれノード03と04でスクリプトを実行します。yarn-はこのResourceManagerに開始daemon.sh 

UIの訪問:IP:8088 


ストップ:
node01:STOP - dfs.sh 
node01:STOP - yarn.sh(ストップノードマネージャ)
node03の、node04:糸 -daemon.shのResourceManager STOP(停止のResourceManager)

 

   まずZKクラスタを起動し、コマンド:zkServer.sh開始

    ミスターHDFSはに基づいているので、HDFSコマンドを起動する最初のプライマリノードである:start-dfs.sh

HDFSクラスタの起動:

 

 

プライマリノード上でノード・マネージャを起動し、このプロセスは、ノードのデータノードのそれぞれに開始されます

[node01のHadoop @ルート]#start-yarn.sh

 

 本明細書に記載起動しない、ノードは、それを起動するために行く二つの別々のResourceManagerを設定する必要があります

[ルート@のnode03ののの.ssh]#yarn- daemon.shのResourceManager開始
へのロギング、のResourceManagerを開始するの/ opt / SXT / hadoop- 2.65 /ログ/糸ルートのResourceManager-node03の。でる
[ルート@のnode04との.ssh]#yarn- daemon.shのResourceManager開始
へのロギング、のResourceManagerを開始するの/ opt / SXT / hadoop- 2.65 /ログ/糸ルートのResourceManager-node04。でる

 

SS -nalコマンドによって後にポート8088を表示するデフォルトの通信ポート糸とブラウザであり、

3888選挙はZK 2888は、内部クラスタ通信に使用するポートで、使用するポートZKクラスター機構であり、2181年にはシングルポートサーバとクライアントの通信であります

 

 

ブラウザアクセス糸

 

そのコンピューティングパワーを使用するには:

まず、自分自身を作成し​​、ファイルをアップロード

[ルート@ node01はhadoop- 2.65 ]#のための配列` 100000 `; やるエコー" こんにちはSXT $ I "   >> test.txtというの;が実行
[node01ソフトウェア@ルート]#HDFS DFS -D dfs.blocksize = 1048576 -putあるtest.txt

 

 

 

コンピューティング機能プロセスの特定の使用

自分のパスのHadoopのインストールを確認するには

CDは/ opt / SXT / hadoop- 2.65 /共有/ Hadoopの/ MapReduceの

 

 

 Test.txtという言葉があることを数えます

[ルート@ node01のMapReduceの]#のHadoopのジャーのHadoopのMapReduce - -例- 2.65の.jar WORDCOUNT /test.txt / WORDCOUNT

あなたは、計算過程のスクロールバーの進行状況を確認することができます

 

 

 

バックグラウンド実行Linuxのコマンドライン

 

 

 

まず、ジョブの実行には、マップを実行するジョブを減らします

ブラウザ側の観察計算が完了しています

 

 

 完成した現象を参照するには、コマンドライン

 

 

 

 

 

心が完了するのを待った後、それは、コマンドラインに命令することができます

ビューは、ファイルHDFS 
        調査結果を見てHDFS DFS -cat /ファイルを
HDFS DFS -cat /語数/パートR- 00000

結果

 

 

基本的な機能の完全な計算氏!

おすすめ

転載: www.cnblogs.com/isme-zjh/p/11622483.html