疑似分散型のHadoopの仮想マシンの設定の1.xバージョンに実装

免責事項:この記事はブロガーオリジナル記事です、続くBY-SAのCC 4.0を著作権契約、複製、元のソースのリンクと、この文を添付してください。
このリンク: https://blog.csdn.net/qq_43687990/article/details/102632715

最初のステップは、環境を設定
JDKをインストールする必要があるので、Javaのであるため、基本となるのHadoopに、そして構成されたJava環境。
詳細に説明していないJDKをインストールし、これは主に構成されたJava環境変数であると述べました。入力は/ etc / profileの設定ファイルのJava環境変数の
編集ファイル

viのは/ etc / profile

次のようにほとんどのコンフィギュレーション・コマンドの最後に追加であります

export JAVA_HOME=/usr/java/jdk1.7.0_67(这里的路径根据个人jdk所在路径所决定)
export PATH=$PATH:$JAVA_HOME/bin

後構成に関するソースは/ etc / profileのアップデートにより構成され、その後、jpsコマンドのJavaテスト環境が設定されている使用しています。次のチャートが表示された場合、設定が成功しました。
ここに画像を挿入説明
第二の工程、キーレス構成。
この2つのコマンドを使用すると、キーレスを設定することができます。ノードの切り替えは、ユーザーのパスワードを確認する必要がありません。

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

第3のステップは、インストールパッケージをダウンロードすること、および設定環境変数
Iは、インストールパッケージをダウンロードしたがHadoopの-2.6.5.tar.gzです
アンパック

タールXFのHadoopの-2.6.5.tar.gz(あなたがダウンロードしたアーカイブを所有してアーカイブ)

抽出が完了した後、環境変数のHadoopを設定

export JAVA_HOME=/usr/java/jdk1.7.0_67
export HADOOP_HOME=/root/hadoop-2.6.5(这里是你Hadoop安装的路径)
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

構成されたかどうか、あなたはHDFSに入力することで確認することができますチェック
ここに画像を挿入説明
第4工程を、Hadoopを二JAVA_HOME環境変数の設定は、
3つの文書にhadoop-env.sh設定する必要があり、mapred-env.sh、yarn-env.shは、
最初に入力します。 hadop /下のHadoop-2.6.5 / etcディレクトリに
VI hadoop-env.sh
ここに画像を挿入説明
VI mapred-env.sh
ここに画像を挿入説明
VI yarn-env.sh
ここに画像を挿入説明
第五工程、site.xmlのコンフィギュレーションコア
VIのCore-site.xmlの
ここに画像を挿入説明
構成に挿入コンフィギュレーションで

 <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node2[此处node2是你虚拟机中IP的别名,对应着你节点的IP,如我的node2对应着虚拟机IP:192.168.163.xx]:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/sxt/hadoop/local</value> #此处路径为自由设置,用来存dataNode和nameNode等数据
    </property>

第6のステップ、構成HDF-site.xmlのは、
ここに画像を挿入説明
構成に以下の構成を追加します。

 <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>node06(改为自己虚拟机IP对应的别名):50090</value>
    </property>

第7のステップ、スレーブ設定ファイル
IPエイリアスを対応する独自の仮想マシン内の代わりにlocalhostに、IはNODE2に変更されるよう

第8のステップは、HDFSは書式設定
名前ノードの-format HDFS(一回のみの形式を、再び実行するようにクラスタを起動しないでください)

第9工程は、クラスタ開始
start-dfs.sh
JPSによる処理の役割を表示します

ビューのWeb UI:IP:50070、以下のページをご覧ください
ここに画像を挿入説明

第10工程、テストアップロードファイル
ディレクトリを作成するには、あなたがあなた自身で作成したディレクトリにファイルをアップロード:HDFS DFS -mkdir -p /ユーザー/ルート( マイパス:/ユーザー/ルート)
を表示カタログ:HDFS DFS -ls /
アップロードファイル:HDFS DFS -putのHadoop-2.6.5.tar.gz /ユーザー/ルート

クラスタを停止します。stop-dfs.dhを

おすすめ

転載: blog.csdn.net/qq_43687990/article/details/102632715