Hadoop2.7.7は完全に分散します

IPアドレスを変更します。

cd /etc/sysconfig/network-scripts
vi 第一个文件名或者有字母数字的文件名

設定を変更

BOOTPROTO=”static”  #静态获取IP地址
ONBOOT=“yes”   #开机使用本配置
IPADDR=      #IP地址
NETMASK=255.255.255.0 # 网络子掩码
GATEWAY=   #网关
DNS1= 114.114.114.114  #DNS配置

ネットワークサービスを再起動します

service network restart

ホスト名のないIPとの間のマッピングを変更します。

vi  /etc/hosts

IPは、3台のマシンとホスト名のIPアドレスが同じローカルエリアネットワークの下で修正される
他の二つの仮想マシンおよび再起動(実際の動作設定以下のIPアドレス)に渡された以下の2つのコピーを
172.16.201.10マスター
172.16.201.11 SLAVE1
172.16。 201.12スレーブ2
それぞれのホスト名にホスト名を変更します

vi /etc/hostname
master

仮想マシンを再起動します。

reboot

フリー操作は、緻密
次の公開鍵に基づいて動作する3台の仮想マシン
と公開鍵は、他の二つに渡された3 authorzied_keysに配置されている3つの公共の間で保証され、独自のがいる
公開鍵を生成します

ssh-keygen 

ノードに追加されます

ssh-copy-id -i .ssh/id_rsa.pub root@wangmaste

#テスト無料の秘密成功するかどうか

ssh localhost

他の仮想マシンとの接続をテスト

ssh 主机名

JDKをインストール
マシンがJDKを持っているかどうかについての見解を

rpm  -qa|grep jdk

アンインストールJDK

 yum remove jdk文件名

解凍良いJDK、Hadoopの

tar xf  jdk名  hadoop文件名  -C  安装路径

セットJDK、Hadoopの環境変数

#jdk
export  JAVA_HOME=/opt/jdk #jdk安装路径
#hadoop
export  HADOOP_HOME=/opt/Hadoop  #hadoop安装路径
PATH=$PATH:$JAVA_HOME/bin$HADOOP_HOME/bin:$HADOOP_HOME/sbin

有効にする設定ファイル

source  /etc/profile

Hadoopの設定ファイルを入力します。

cd /opt/hadoop/etc/Hadoop

ファイルを変更しhadoop-env.sh

vi hadoop-env.sh

JDKのインストールパスを変更するための設定環境変数JDK声明を探します

export JAVA_HOME=/opt/jdk

yarn-env.shファイルを変更します

vi yarn-env.sh

JDKのインストールパスを変更するための設定環境変数JDK声明を探します

export JAVA_HOME=/opt/jdk

変更されたコア-site.xmlファイル

vi  core-site.xml
<property>
       <name>fs.defaultFS</name>
       <value>hdfs://master:9000</value>
</property>
<property>
       <name>hadoop.tmp.dir</name>
       <value>/opt/hadoop/tmp</value>
</property>

修正HDFS-site.xmlファイル

vi hdfs-site.xml
<property>
         <name>dfs.replication</name>
         <value>1</value>
</property>
<property>
           <name>dfs.namenode.secondary.http-address</name>
           <value>master:50090</value>
</property>

変更はmapred-site.xmlファイルを
mapred-site.xml.templateファイルをコピーして、ファイル名にmapred-site.xmlのを修正

cp mapred-site.xml.template  mapred-site.xml
vi mapred-site.xml   
   <property>
         <name>mapreduce.framework.name</name>
         <value>yarn</value>
   </property>

修正糸-site.xmlファイル

vi yarn-site.xml     
   <property>
       <name>yarn.nodemanager.aux-services</name>
       <value>mapredue_shuffle</value>
   </property>
   <propety>
      <name>yarn.resourcemanager.hostname</name>
      <value>master</value>
   </property>

修正奴隷ファイル

vi slaves

#2スレーブノードを追加します。

slave1   #从节点的主机名
slave2   #从节点的主机名

ファイアウォールをオフにします

systemctl stop firewalld.service

禁止ブートファイアウォール

systemctl  disable firewalld.service

他の仮想マシンのHadoopに渡されたファイル全体をコピーします。
SCP -r異なるホスト名@rootにHadoopのフォルダのパス:/ストレージ・パス
マスター仮想マシン上でフォーマットされました

hdfs namenode   -format

スタートのHadoop

start-all.sh

プロセスを見ます

jps

ザ・マスターマスターノードは、4つのプロセスを持っている
ノードから他の仮想マシン上に3つのプロセスがあります

Hadoopが言ったプロセスを実現する完全分散構成の完全が必要です!

公開された39元の記事 ウォン称賛13 ビュー2312

おすすめ

転載: blog.csdn.net/qq_43205282/article/details/103433722