hadoop完全分布式的安装部署

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/weixin_43671437/article/details/102726394

hadoop完全分布式安装部署

前提

1、准备3台客户机(关闭防火墙、静态ip、主机名称
2、安装JDK
3、配置环境变量
4、安装Hadoop
5、配置环境变量
6、配置集群
7、单点启动
8、配置ssh
9、群起并测试集群

本博客只有hadoop完全分布式的“配置集群”:,其他内容可参考本博主的其他博客

hadoop安装

官网下载hadoop2.7.2安装包
然后直接解压文件即可

hadoop组件部署

1、集群部署规划

master slave1 slave2
HDFS NameNode Datanade Datanode SecondaryNameNode Datanode
YARN NodeManager ResourceManager NodeManager NodeManager

2、配置集群

(1)核心文件配置
配置core-site.xml

[root@master hadoop]$ vi core-site.xml

在文件<configuration> </configuration>中添加内容

<!--指定hdfs中namenode的地址-->
<property>
	<name>fs.defaultFS</name>
	<value>hdfs://master:90000</value>
</property>

<!--指定hadoop运行时产生的存储目录-->
<property>
	<name>hadoop.tmp.dir</name>
	<value>/usr/local/src/hadoop-2.7.2/data/tmp</value>
</property>

(2)HDFS配置文件
配置hadoop-env.sh
只要遇到env的文件,就是修改jdk环境

[root@master hadoop]$ vim hadoop-env.sh
export JAVA_HOME=/usr/local/src/jdk1.8.0_144

配置hdfs-site.xml

[root@master hadoop]$ vim hdfs-site.xml
<!--设置hdfs副本数-->
<property>
	<name>dfs.replication</name>
	<value>3</value>
</property>
<!--设置hadoop辅助名称节点的主机配置-->
<property>
	<name>dfs.namenode.secondary.http-address</name>
	<value>slave2:50090</value>
</property>

(3)YARN配置文件

配置yarn-env.sh

[root@master hadoop]$ vim yarn-env.sh
export JAVA_HOME=/usr/local/src/jdk1.8.0_144

配置yarn-site.xml

[root@master hadoop]$ vim yarn-site.xml

添加配置

<!--Reducer获取数据的方式-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

<!--指定YARN的ResourceManager的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>slave2</value>
</property>

(4)MapReduce的配置文件

配置mapred-env.sh

[root@master hadoop]$ vi mapred-env.sh
export JAVA_HOME=/usr/loca/src/jdk1.8.0_144

配置mapred-site.xml

[root@master hadoop]$ cp mapred-site.xml.template    mapred-site.xml

[root@master hadoop]$ vi mapred-site.xml

添加配置

<!--指定MR运行在YARN上-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

3、分发文件
将master配置好的hadoop文件分发给slave1和slave2

[root@master hadoop]# scp -r /usr/local/src/hadoop-2.7.2  root@slave1:/usr/local/src/
[root@master hadoop]# scp -r /usr/local/src/hadoop-2.7.2  root@slave2:/usr/local/src/

4、集群群启动
群起前提是已配置ssh免密登录
首次启动需格式化namenode

[root@master hadoop]#bin/hdfs  namenode -format

启动集群

[root@master hadoop]#sbin/start-dfs.sh 
[root@master hadoop]#sbin/start-yarn.sh

最后在各个节点查看是否与“集群部署规划”的一样

猜你喜欢

转载自blog.csdn.net/weixin_43671437/article/details/102726394