Hadoop 2.6.4 完全分布式环境搭建

版权声明:本文为博主原创文章,未经博主允许不得转载。交流请联系:351605040 https://blog.csdn.net/Arvinzr/article/details/79230192
一、安装linux 环境
OS Linux:CentOS 6.6 64bit
内存 1.5-2GB
硬盘 15-20GB

二、安装JDK 及修改hostname

1、修改hostname 

[root@master ~]# vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=master

2、安装JDK
配置两个变量
$JAVA_HOME
$PATH
备注:设置PATH的时候一定要记得加上$PATH:   不然linux常用命令会失效
export PATH= $PATH: $JAVA_HOME/bin

三、关闭防火墙 
service iptables stop
chkconfig iptables off

四、配置域名解析

vi /etc/hosts
192.168.1.100 master
192.168.1.101 slave1
192.168.1.102 slave2
192.168.1.103 slave3

测试:
ping  

五、安装SSH及配置免密码SSH登录(互信)

$ ssh-keygen
$ ssh-copy-id master/slave1/slave2/slave3

六 、安装步骤
下载并解压Hadoop Bundle
配置环境变量
配置Hadoop配置文件
节点分发
格式化NameNode
启动Hadoop

1、配置环境变量
vi .bash_profile

export HADOOP_PREFIX="/home/hadoop/hadoop-2.6.4/" 
export PATH=$PATH:$HADOOP_PREFIX/bin 
export PATH=$PATH:$HADOOP_PREFIX/sbin 
export HADOOP_COMMON_HOME=${HADOOP_PREFIX} 
export HADOOP_MAPRED_HOME=${HADOOP_PREFIX} 
export HADOOP_HDFS_HOME=${HADOOP_PREFIX} 
export YARN_HOME=${HADOOP_PREFIX}

export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"

source ~/.bash_profile

2、配置Hadoop配置文件

core-site.xml hdfs-site.xml
mapred-site.xml
yarn-site.xml
hadoop-env.sh和yarn-env.sh
slaves

1、core-site.xml
core-site.xml文件包含了NameNode节点的信息以及NameNode使用的RPC端口。

<property>
      <name>fs.defaultFS</name>
     <value>hdfs://master:8020</value>
     <final>true</final>
</property>

2、hdfs-site.xml
hdfs-site.xml文件包含HDFS相关的配置信息,包括副本系数,NameNode和DataNode存储数据的目录等。

<property>
     <name>dfs.replication</name>
     <value>1</value>
</property>

<property>
     <name>dfs.namenode.name.dir</name>
     <value>file:///home/oracle/hadoop-.6.4/hadoop_data/dfs/name</value>
</property>

<property>
     <name>dfs.datanode.data.dir</name>
     <value>file:///home/oracle/hadoop-.6.4/hadoop_data/dfs/data</value>
</property>

3.mapred-site.xml

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

4.yarn-site.xml


<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name> 
<value>master:8031</value>
</property>
<property> 
<name>yarn.resourcemanager.admin.address</name> 
<value>master:8033</value> 
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property> 
<name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name> 
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property> 
<property>
<name>yarn.resourcemanager.scheduler.class</name> <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value>
</property>


4.slaves
slave文件包含了所有的从节点的主机名。
slave1
slave2
slave3

3.格式化NameNode

hdfs namenode -format


4.Hadoop Web用户界面

HDFS-NameNode: http://192.168.2.80:50070/

监控HDFS运行指标
查询连接到NameNode的DataNode列表
浏览文件系统

YARN-ResourceManager: http://192.168.2.80:8088/

监控应用程序和集群资源
NodeManager列表
调度器的详情













猜你喜欢

转载自blog.csdn.net/Arvinzr/article/details/79230192