Ubuntu + Hadoop2.7.3集群搭建

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_38038143/article/details/83050840

先搭建Hadoop伪分布: Ubuntu + Hadoop2.7.3伪分布搭建

1.修改/etc/hosts文件,IP映射

内容如下:
在这里插入图片描述
注:10.13.7.72为master节点IP,10.13.7.71为slave节点IP。(根据自己的IP地址设置)
在这里插入图片描述

2.修改master配置文件

在这里插入图片描述
修改slaves,内容如下:

slave

在这里插入图片描述
修改hdfs-site.xml,内容如下:

<configuration>

        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/usr/local/hadoop/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/usr/local/hadoop/dfs/data</value>
        </property>
        <property>
                <name>dfs.namenode.datanode.registration.ip-hostname-check</name>
                <value>false</value>
        </property>
</configuration>

3.复制master节点

在VirtualBox中复制master节点:
右键master,选择复制:
在这里插入图片描述

在这里插入图片描述
注:复制后需要修改slave节点的桥接IP地址,确保master与slave能够互相ping通。

4.配置slave节点

配置主机名,修改后重启Ubuntu:
在这里插入图片描述

5.节点之间免密登录

在master节点执行:

ssh-copy-id -i ~/.ssh/id_rsa.pub slave

测试:
在这里插入图片描述

在slave节点执行:

ssh-copy-id -i ~/.ssh/id_rsa.pub master

测试:
在这里插入图片描述

注: 执行 exit 退出。

4.启动集群

在 master 和 slave 节点执行 1和 2:
  1. 删除已有的 dfs tmp目录和logs日志。
rm -rf  dfs  tmp  logs/*
  1. 新建 dfs tmp目录:
mkdir -p  dfs/{name,data}  tmp

格式化master节点(只需要格式化master,注:每次只能格式化一次,若还需第二次格式化则先删除,后创建dfs 和 tmp目录):

hdfs namenode -format

在这里插入图片描述
注:Exiting with status 0则成功, 1则失败。

在master执行命令:start-dfs.sh
在这里插入图片描述
在slave节点执行:jps
在这里插入图片描述

在master执行命令:start-yarn.sh
在这里插入图片描述

在slave节点执行:jps
在这里插入图片描述

浏览器查看master节点IP + 端口:10.13.7.72:50070,可得到slave节点即搭建成功:
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_38038143/article/details/83050840