大数据实战 Linux Ubuntu 20.04.1 server Hadoop2.8.5集群部署

1.前期工作

详细点击这里,了解更多

2.时间同步

思路:让主节点连接外网的时间,从节点仅仅连接主节点的时间,达到3台机时间一样的目的

2.1 主节点时间同步

2.1.1 安装软件包

apt-get install chrony -y
在这里插入图片描述

2.1.2 编辑/chrony.conf

vi /etc/chrony/chrony.conf
添加
local stratum 10
allow 172.25.0.0/24
在这里插入图片描述

2.1.3 激活启动NTP服务

systemctl enable chrony
systemctl restart chrony
在这里插入图片描述

2.2 从节点时间同步

2.2.1 安装软件包

apt-get install chrony -y
在这里插入图片描述

2.2.2 编辑/chrony.conf

vi /etc/chrony/chrony.conf
注释这4行,添加server master iburst
在这里插入图片描述

2.2.3 激活启动NTP服务

在这里插入图片描述

2.3 检测是否成功

2.3.1 主节点测试

chronyc sources
在这里插入图片描述

2.3.2 从节点测试

在这里插入图片描述
到此NTP完成。

3 . 免密码SSH设置

目的是为了将编辑好的文档下发到从节点

3.1所有节点创建组

sudo groupadd -g 285 angel
(可以在bass普通用户下操作,可以在root用户下操作。若在bass需要提高权限sudo,root用户则不用。)
在这里插入图片描述
285 是组号,angel是组名。

3.2 所有节点创建用户

$ sudo useradd -u 285 -g 285 -m -s /bin/bash angel
在这里插入图片描述

用户号为285,用户组号为285,用户名为angel。

3.3 设置angel用户的密码

sudo gpasswd -a angel sudo
将angel用户添加到sudo组。
在这里插入图片描述
sudo passwd angel
密码为123
在这里插入图片描述

3.4 切换angel用户

su - angel
密码:123
在这里插入图片描述

3.5 生成证书(在主节点上操作)

ssh-keygen -t rsa
加密算法选择rsa,
在这里插入图片描述

3.6 将公钥复制到所有点

3.6.1 主节点

ssh-copy-id -i .ssh/id_rsa.pub master

yes
密码:123
在这里插入图片描述

3.7 测试

ssh master
ctrl+D 退出
logout
在这里插入图片描述

3.7.1 在主节点连接从节点

ssh slave1
ssh slave2

4.Java安装

4.1 所有节点建立app目录

在angel用户下建立
sudo mkdir /app
在这里插入图片描述
sudo chown -R angel:angel /app

4.2 所有节点编辑jdk环境变量

vi /home/angel/.profile
在最后添加2行
在这里插入图片描述

4.3 所有节点jdk环境变量生效

source /home/angel/.profile

4.4 上传jdk压缩到angel用户下

4.4.1 用winscp工具,用root用户登录

在这里插入图片描述

4.5 将jdk压缩包解压放在/app目录下

cd /app
tar xzvf /home/angel/jdk-8u261-linux-x64.tar.gz -C /app

在这里插入图片描述

5.将/app上的内容下发到从节点

scp -r /app/* angel@slave1:/app
scp -r /app/* angel@slave2:/app

在这里插入图片描述

6 测试

java -version
javac -version
在这里插入图片描述

7 Hadoop安装

7.1 上传hadoop包到angel用户下

tar xzvf /home/angel/hadoop-2.8.5.tar.gz -C /app
在这里插入图片描述

7.2 所有节点编辑Hadoop环境变量

vi /home/angel/.profile
添加:

export HADOOP_HOME=/app/hadoop-2.8.5 
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH 
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

在这里插入图片描述

7.3 所有节点Hadoop环境变量生效

source /home/angel/.porfile

7.4 修改Hadoop配置文件

7.4.1 hadoop-env.sh

vi /app/hadoop-2.8.5/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/app/jdk1.8.0_261

在这里插入图片描述

7.4.2 core-site.xml

vi /app/hadoop-2.8.5/etc/hadoop/core-site.xml

<property> 
<name>fs.defaultFS</name> 
<value>hdfs://master:9000</value> 
</property> 
<property> 
<name>hadoop.tmp.dir</name> 
<value>/tmp/hadoop-2.8.5</value> 
</property> 
<property> 
<name>hadoop.proxyuser.angel.hosts</name> 
<value>*</value> 
</property> 
<property> 
<name>hadoop.proxyuser.angel.groups</name> 
<value>*</value> 
</property> 

在这里插入图片描述

7.4.3 hdfs-site.xml

vi /app/hadoop-2.8.5/etc/hadoop/hdfs-site.xml

<property> 
 <name>dfs.replication</name> 
<value>2</value> 
</property> 
<property> 
<name>dfs.namenode.name.dir</name> 
<value>/app/hadoop-2.8.5/dfs/name</value> 
</property> 
<property> 
<name>dfs.datanode.data.dir</name> 
<value>/app/hadoop-2.8.5/dfs/data</value> 
</property> 

在这里插入图片描述

7.4.4 mapred-site.xml

先将 mapred-site.xml.template复制命名为mapred-site.xml
cp /app/hadoop-2.8.5/etc/hadoop/mapred-site.xml.template /app/hadoop-2.8.5/etc/hadoop/mapred-site.xml

<property> 
<name>mapreduce.framework.name</name> 
<value>yarn</value> 
</property> 
<property> 
<name>mapreduce.jobhistory.address</name> 
<value>master:10020</value> 
</property> 
<property> 
<name>mapreduce.jobhistory.webapp.address</name> 
<value>master:19888</value> 
</property> 

在这里插入图片描述

7.4.5 yarn-site.xml

vi /app/hadoop-2.8.5/etc/hadoop/yarn-site.xml

<property> 
<name>yarn.resourcemanager.hostname</name> 
<value>master</value> 
</property> 
<property> 
<name>yarn.nodemanager.aux-services</name> 
<value>mapreduce_shuffle</value> 
</property> 

在这里插入图片描述

7.4.6 slaves

vi /app/hadoop-2.8.5/etc/hadoop/slaves
在这里插入图片描述

7.5 复制到从节点

scp -r /app/hadoop-2.8.5/ angel@slave1:/app
scp -r /app/hadoop-2.8.5/ angel@slave2:/app

耐心等待下发完成
在这里插入图片描述

8.Hadoop启动

8.1 格式化 namenode

hdfs namenode -format
在这里插入图片描述

8.2 启动Hadoop

start-dfs.sh
在这里插入图片描述

8.3 启动yarn

start-yarn.sh
在这里插入图片描述

8.4 启动JobHistoryServer

mr-jobhistory-daemon.sh start historyserver
在这里插入图片描述

8.5 查看进程

8.5.1 master节点

jps
在这里插入图片描述

8.5.2 slave1,slave2节点

jps
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
节点机有2个活的,端口号50070,8088
到此hadoop环境配置成功!

猜你喜欢

转载自blog.csdn.net/qq_45059457/article/details/108951024