hadoop HDFS完全分布式搭建

1.准备阶段

准备好两台虚拟机(安装好hadoop,见:https://www.cnblogs.com/cjq10029/p/12336446.html),计划:

IP           主机名
192.168.3.7  hdp01   主节点
192.168.3.8  hdp02   从节点

2.开始操作

1.同步时间

yum install ntpdate   #各节点安装同步工具
ntpdate ntp1.aliyun.com    #同步阿里云ntp服务器时间
date          #查看同步后的时间

2.配置IP映射

vim /etc/hosts   #进入配置文件
192.168.3.7 hdp01   #末尾加入这两行
192.168.3.8 hdp02

3.配置免密

授权免密访问
hdp01-->hdp01
hdp01-->hdp02

ssh-keygen  #生成密钥对
ssh-copy-id hdp01   #将公钥拷贝给本机
ssh-copy-id hdp02   #将公钥拷贝给其他机

4.修改hdfs-site.xml配置文件(主从节点)

vim /opt/software/hadoop277/etc/hadoop/hdfs-site.xml
#在已有标签内写入以下代码
<property>
        <name>dfs.replication</name>
        <value>3</value>   //Block副本数
</property>

5.修改slaves配置文件

vim /opt/software/hadoop277/etc/hadoop/hdfs-site.xml
#写入以下代码
hdp01
hdp02

6.启动测试

start-dfs.sh   #在主节点启动,从节点会跟着启动

3.sbin下的脚本

start-all.sh    一次启动五个

hadoop-daemon.sh  一次启动或停止一个 namenode   datanode   secondnamenode

​   hadoop-daemon.sh start datanode

​   hadoop-daemon.sh stop datanode

yarn-daemon.sh  一次启动或停止一个   nodemanager resourcemanager

start-yarn.sh  一次启动两个  nodemanager resourcemanager

start-dfs.sh 一次启动三个  namenode   datanode   secondnamenode

猜你喜欢

转载自www.cnblogs.com/cjq10029/p/12366305.html