IPアドレスを変更します。
cd /etc/sysconfig/network-scripts
vi 第一个文件名或者有字母数字的文件名
設定を変更
BOOTPROTO=”static” #静态获取IP地址
ONBOOT=“yes” #开机使用本配置
IPADDR= #IP地址
NETMASK=255.255.255.0 # 网络子掩码
GATEWAY= #网关
DNS1= 114.114.114.114 #DNS配置
ネットワークサービスを再起動します
service network restart
ホスト名のないIPとの間のマッピングを変更します。
vi /etc/hosts
IPは、3台のマシンとホスト名のIPアドレスが同じローカルエリアネットワークの下で修正される
他の二つの仮想マシンおよび再起動(実際の動作設定以下のIPアドレス)に渡された以下の2つのコピーを
172.16.201.10マスター
172.16.201.11 SLAVE1
172.16。 201.12スレーブ2
それぞれのホスト名にホスト名を変更します
vi /etc/hostname
master
仮想マシンを再起動します。
reboot
フリー操作は、緻密
次の公開鍵に基づいて動作する3台の仮想マシン
と公開鍵は、他の二つに渡された3 authorzied_keysに配置されている3つの公共の間で保証され、独自のがいる
公開鍵を生成します
ssh-keygen
ノードに追加されます
ssh-copy-id -i .ssh/id_rsa.pub root@wangmaste
#テスト無料の秘密成功するかどうか
ssh localhost
他の仮想マシンとの接続をテスト
ssh 主机名
JDKをインストール
マシンがJDKを持っているかどうかについての見解を
rpm -qa|grep jdk
アンインストールJDK
yum remove jdk文件名
解凍良いJDK、Hadoopの
tar xf jdk名 hadoop文件名 -C 安装路径
セットJDK、Hadoopの環境変数
#jdk
export JAVA_HOME=/opt/jdk #jdk安装路径
#hadoop
export HADOOP_HOME=/opt/Hadoop #hadoop安装路径
PATH=$PATH:$JAVA_HOME/bin$HADOOP_HOME/bin:$HADOOP_HOME/sbin
有効にする設定ファイル
source /etc/profile
Hadoopの設定ファイルを入力します。
cd /opt/hadoop/etc/Hadoop
ファイルを変更しhadoop-env.sh
vi hadoop-env.sh
JDKのインストールパスを変更するための設定環境変数JDK声明を探します
export JAVA_HOME=/opt/jdk
yarn-env.shファイルを変更します
vi yarn-env.sh
JDKのインストールパスを変更するための設定環境変数JDK声明を探します
export JAVA_HOME=/opt/jdk
変更されたコア-site.xmlファイル
vi core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>
修正HDFS-site.xmlファイル
vi hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:50090</value>
</property>
変更はmapred-site.xmlファイルを
mapred-site.xml.templateファイルをコピーして、ファイル名にmapred-site.xmlのを修正
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
修正糸-site.xmlファイル
vi yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapredue_shuffle</value>
</property>
<propety>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
修正奴隷ファイル
vi slaves
#2スレーブノードを追加します。
slave1 #从节点的主机名
slave2 #从节点的主机名
ファイアウォールをオフにします
systemctl stop firewalld.service
禁止ブートファイアウォール
systemctl disable firewalld.service
他の仮想マシンのHadoopに渡されたファイル全体をコピーします。
SCP -r異なるホスト名@rootにHadoopのフォルダのパス:/ストレージ・パス
マスター仮想マシン上でフォーマットされました
hdfs namenode -format
スタートのHadoop
start-all.sh
プロセスを見ます
jps
ザ・マスターマスターノードは、4つのプロセスを持っている
ノードから他の仮想マシン上に3つのプロセスがあります
Hadoopが言ったプロセスを実現する完全分散構成の完全が必要です!