Hadoop3.1.0 伪分布式环境安装部署

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/daerzei/article/details/80874170

前言

刚刚开始学大数据的时候Hadoop最新版还是2.5.0,现在都已经出到3.1.0了,时间好快啊
Hadoop版本:apache-hadoop3.1.0
Linux操作系统:平时工作的时候都是CentOS6,CentOS7,
这将在archLinux系列的manjaro上部署,命令啊,步骤啊什么的都是一样的。
主要是想以后以Manjaro系统作为自己的个人电脑使用,工作得越久越发现自己的工作与Windows没有差点关系

概述

  1. java8是必须的
    所有Hadoop的jar都是利用java8的运行时版本进行编译的
  2. 多个 服务的默认端口号改变
    Hadoop多个端口号已经变了,下面列出主要的
名称 2.x 端口号 3.x 端口号
NameNode 8020 9820
NameNode HTTP UI 50070 9870
DataNode 50010 9866
Secondary NameNode HTTP UI 50090 9868
DataNode IPC 50020 9867
DataNode HTTP UI 50075 9864
DataNode 50010 9866

3. Hadoop3的启动方式变了
后面会讲
4. 其他
个人习惯使用主机名与IP地址映射,然后直接使用主机名在浏览器上访问,好记嘛
主机名与IP地址映射 :

cat /etc/hosts

127.0.0.1       localhost
::1     localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
# 添加如下行
192.168.1.101 mo.don.com mo

第一列是IP地址,第二列是主机名,第三列是别名,映射过以后用哪个效果都是一样的,通过Windows远程访问的话Windows下的hosts文件也需要添加IP地址映射,Windows的hosts文件一般在:C:\Windows\System32\drivers\etc
另外记得关闭防火墙

第一步:给安装包添加权限

chmod +x *.tar.gz

第二步:解压

tar -zxf hadoop-3.1.0.tar.gz -C /opt/modules/

第三步:创建快捷方式

我习惯使用软链接指向它,为什么?方便呗

ln -s /opt/modules/hadoop-3.1.0/ /opt/shortcut/hadoop

第四步:设置环境变量

vim /etc/profile

添加如下内容
# Hadoop Environment Available
export HADOOP_HOME=/opt/shortcut/hadoop
export PATH=$PATH:$HADOOP_HOME/sbin
export PATH=$PATH:$HADOOP_HOME/bin

export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

使用root用户source一下使环境变量生效

source /etc/profile

第五步:修改配置文件

hadoop-env.sh,
yarn-env.sh,
mapred-env.sh

# 修改JAVA_HOME路径
export JAVA_HOME=/usr/lib/jvm/default

第六步:修改配置文件:core-site.xml

创建Hadoop本地存储临时数据的目录:

mkdir -p /opt/shortcut/hadoop/data/tmp

修改配置文件

<configuration>
    <!-- HDFS资源路径 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://mo.don.com:9820</value>
    </property>
    <!-- 在见面界面访问数据使用的用户名 -->
    <property>
        <name>hadoop.http.staticuser.user</name>
        <value>dong</value>
    </property>
    <!-- Hadoop临时文件存放目录 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/shortcut/hadoop/data/tmp</value>
    </property>
    <!-- 垃圾文件保留时间(秒) -->
    <property>
      <name>fs.trash.interval</name>
      <value>7200</value>
    </property>
</configuration>

第七步:修改配置文件hdfs-site.xml

创建Hadoop本地存储namenode和datanode数据的目录

mkdir -p /opt/shortcut/hadoop/data/namenode
mkdir -p /opt/shortcut/hadoop/data/datanode
<configuration>
    <!-- 是否进行权限检查 -->
    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>
    <!-- 副本数 -->
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
        <!-- namenode元数据存储路径 -->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/opt/shortcut/hadoop/data/namenode</value>
    </property>
        <!-- 数据存储路径 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/shortcut/hadoop/data/datanode</value>
    </property>
</configuration>

第八步:修改配置文件yarn-site.xml

<configuration>
    <!-- resourceManager在哪台机器 -->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>mo.don.com</value>
    </property>
    <!-- 在nodemanager中运行mapreduce服务 -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <!-- 配置日志的聚集功能 -->
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>604800</value>
    </property>
</configuration>

第九步:修改配置文件mapred-site.xml

<configuration>
    <!-- mapreduce运行在yarn上面 -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.env</name>
        <value>HADOOP_MAPRED_HOME=/opt/shortcut/hadoop</value>
    </property>
    <property>
        <name>mapreduce.map.env</name>
        <value>HADOOP_MAPRED_HOME=/opt/shortcut/hadoop</value>
    </property>
    <property>
        <name>mapreduce.reduce.env</name>
        <value>HADOOP_MAPRED_HOME=/opt/shortcut/hadoop</value>
    </property>
</configuration>

第十步:格式化hdfs

hdfs namenode -format

第十一步:启动HDFS、Yarn

hdfs --daemon start namenode

hdfs --daemon start datanode

yarn --daemon start resourcemanager

yarn --daemon start nodemanager

yarn --daemon start timelineserver

原来的启动脚本:

sbin/hadoop-daemon.sh start namenode

sbin/hadoop-daemon.sh start datanode

sbin/yarn-daemon.sh start resourcemanager

sbin/yarn-daemon.sh start nodemanager

sbin/mr-jobhistory-daemon.sh start historyserver

使用原来的脚本也能正常运行,但是会有警告滴

第十二步:验证

查看是否正常启动:

jps

Hadoop3.1.0 伪分布式环境安装部署_01.png

浏览器查看:
http://mo.don.com:9870
Hadoop3.1.0 伪分布式环境安装部署_02.png

Yarn资源调度系统:
http://mo.don.com:8088
Hadoop3.1.0 伪分布式环境安装部署_03.png

OK,至此完成。

猜你喜欢

转载自blog.csdn.net/daerzei/article/details/80874170