CentOSの - Hadoopが完全に分散します

図1に示すように、配置DNSの
VI / etc / hostsの
192.168.73.130 hadoop01
192.168.73.128 hadoop02
192.168.73.129 hadoop03
192.168.73.131 hadoop04
2.ファイアウォールのテストフェーズの電源を切ります
。#は、サービス閉じる
systemctl停止firewalldの
#は、最初からのブートを閉じ
systemctl無効firewalldを
3.自由なパスワードを設定
VIは、/ etc / ssh / sshd_config
はいRSAAuthentication
           
PubkeyAuthentication yesの
           
#キー・ファイルのパス          
           
AuthorizedKeysFileの〜/ .ssh / authorized_keysに
rootユーザーが開いてrootでログインする必要がある場合
-P keygenの-t-RSA SSH '' -fの〜/ .ssh / id_rsaと
SCP hadoop01のauthorized_keys:の〜/ .ssh /
authorized_keysにid_rsa.pub CAT >>
マシンをコピーした後、各バック、最後の4台のマシンへのコピーに追加されます
SSH自体他のマシンにコピーされた問題がある場合
はssh-id_rsaと追加
のssh-agent
にeval $(のssh-agent)は
、SSH-id_rsaと追加
上記のidルートの@ hadoop04を述べたのssh-コピー-
 

chmodの755 /ルート
のchmod 700の〜/ .ssh
chmodの600の〜/ .ssh / authorized_keysに
サービスのsshdの再起動
4JAVA環境とHadoopの
CD /ホーム
MV JDK-8u201-のlinux-x64の/ javaの

Hadoopの-3.2.0.tar.gz -zxvfタール
MVのHadoop-3.2.0のHadoop
viのは/ etc / profileの
輸出JAVA_HOME = /ホーム/ javaの/ jdk1.8.0_201
輸出JRE_HOME = $ {JAVA_HOME} / JREの
輸出CLASSPATH =。$ {JAVA_HOME} / libに:$ {JRE_HOME} / libに
輸出PATH = $ {JAVA_HOME } / binに:$ PATHの
輸出HADOOP_HOME = /ホーム/ Hadoopのの
= $ PATHに輸出PATH:$ HADOOP_HOME /ビン
= $ PATHに輸出PATH:$ HADOOP_HOME / sbinには
輸出HADOOP_CONF_DIR = $ {HADOOP_HOME}の/ etc / Hadoopの
chmod /home/java/jdk1.8.0_201/bin/java 777
元/ etc / profileを
検証するJava
のJava -version
CD /ホーム/ Hadoopのは/ etc / Hadoopの
我々はhadoop-env.sh
我々はmapred-env.sh
我々はyarn-env.sh
輸出JAVA_HOME = "/ホーム/ javaの/ jdk1.8.0_201"
5.プロフィールHadoopの変更
コア-site.xmlの、HDFS-site.xmlの、修飾するディレクトリ下-demandなど/ HadoopのHadoopのインストールディレクトリ mapred-site.xmlに、糸site.xmlの、労働者に応じて、ファイルを実際の状況は、構成情報を変更します。
 
 添付リンクhttps://www.cnblogs.com/shireenlee4testing/p/10472018.html

おすすめ

転載: www.cnblogs.com/wygflying163/p/11511460.html