Hdoop伪分布式集群搭建


Hadoop安装部署

前言

1.环境

  • 虚拟机数量:3个 (1个master,2个slave:slave01,slave02)
  • 操作系统:Ubuntu 22.04.2

2.步骤

在这里插入图片描述

3.效果图

hadoop集群安装部署后,启动集群,效果如下:

效果图1:master虚拟机上,出现这4个进程表示主节点进程启动成功。

在这里插入图片描述

效果图2:slave01虚拟机上,出现这3个进程表示从节点进程启动成功。

在这里插入图片描述

效果图3:slave02虚拟机上,出现这3个进程表示从节点进程启动成功。

在这里插入图片描述

具体步骤

(一)前期准备

首先要确保各台虚拟机能ping通外网

(1)ping外网

在三台虚拟机中使用ping命令,确保各台虚拟机能ping通外网。

(2)配置主机名

将三台主机名分别设置为master,slave01,slave02,便于后期的操作

说明:此处以界面虚拟机master的操作为例,slave01和slave02的操作如法炮制。

不同操作系统可能操作方法不同,百度对应操作即可

  1. 以下操作需要root用户权限,所以先切换成root用户。

    chenqi@localhost:~$ sudo su
    
  2. 使用vi命令编辑主机名(或使用gedit)。

    root@localhost:~# vi /etc/hostname
    

    将hostname文件中原来内容替换为master,如果已经是master,可以直接按冒号“:“键,再输入“wq”保存退出

  3. 临时设置主机名为master。

    root@localhost:~# hostname master
    
  4. 检测主机名是否修改成功,使用bash命令让上一步操作生效。

    root@localhost:~# bash
    
  5. localhost变为master

(3)配置时钟同步

说明:此处以界面虚拟机master的操作为例,slave01和slave02的操作如法炮制。

不同操作系统可能操作方法不同,百度对应操作即可

Linux服务器运行久了,系统时间就会存在一定的误差,一般情况下可以使用date命令进行时间设置,但在做数据库集群等操作时对多台机器的时间差是有要求的,此时就需要使用ntpdate进行时间同步

  1. 使用root用户权限

  2. 执行命令同步,如果没有ntpdate需要先安装:apt-get install ntpdate

    root@master:~# sudo ntpdate cn.pool.ntp.org
    

(4)关闭防火墙

说明:此处以界面虚拟机master的操作为例,slave01和slave02的操作如法炮制。

不同操作系统可能操作方法不同,百度对应操作即可

  1. 查看防火墙状态(默认已经关闭防火墙)

    root@master:~# sudo ufw status
    
  2. 两条命令分别是打开防火墙和关闭防火墙)

    root@master:~# sudo ufw enable 
    root@master:~# sudo ufw disable
    

(二)正文

(1)配置hosts列表

说明:此处以界面虚拟机master的操作为例,slave01和slave02的操作如法炮制。

不同操作系统可能操作方法不同,百度对应操作即可

  1. 运行ifconfig命令,获得当前master虚拟机的ip地址,如图6-10所示是master的ip地址。(用相同方法获得当前slave01和slave02虚拟机的ip地址。)

    ifconfig没安装可以先安装,也可以使用ip addr

  2. 编辑主机名列表文件hosts。将下面三行添加到/etc/hosts文件中,保存退出。

    root@master:~# vi /etc/hosts
    
    "自己的maser主机地址" master
    "自己的slave01主机地址" slave01
    "自己的slave02主机地址" slave02
    
  3. 测试

    root@master:~# ping master -c 3
    root@master:~# ping slave01 -c 3
    root@master:~# ping slave02 -c 3
    

    说明:参数-c 3表示只返回三行响应就中止。ping通就代表成功

(2)SSH免密钥登录配置

①master虚拟机上
  1. 先从root用户,退回到普通用户

    root@master:~# su chenqi
    
  2. 在终端生成密钥,命令如下(一路按回车完成密钥生成)

    chenqi@master:~$ ssh-keygen -t rsa
    

    在这里插入图片描述

  3. 生成的密钥在用户根目录中的.ssh子目录中,进入.ssh目录查看

    在这里插入图片描述

  4. 执行以下命令复制公钥文件

    chenqi@master:~/.ssh$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    
  5. 修改authorized_keys文件的权限

    chenqi@master:~/.ssh$ chmod 600 ~/.ssh/authorized_keys
    
  6. 将专用密钥添加到 ssh-agent 的高速缓存中

    chenqi@master:~/.ssh$ ssh-add ~/.ssh/id_rsa
    

    Could not open a connection to your authentication agent:

    原因:未启动ssh agent

    先执行一下ssh-agent bash

  7. 将authorized_keys文件复制到slave01、slave02虚拟机的zkpk用户的根目录,

    chenqi@master:~$ scp ~/.ssh/authorized_keys zkpk@slave01:~/
    chenqi@master:~$ scp ~/.ssh/authorized_keys zkpk@slave02:~/
    
②slave01虚拟机上
  1. 生成密钥,命令如下(一路点击回车生成密钥)。

    chenqi@slave01:~$ ssh-keygen -t rsa
    
  2. 将authorized_keys文件移动到.ssh目录,

    chenqi@slave01:~$ mv authorized_keys ~/.ssh/
    
③slave02虚拟机上
  1. 生成密钥,命令如下(一路点击回车生成密钥)。

    chenqi@slave02:~$ ssh-keygen -t rsa
    
  2. 将authorized_keys文件移动到.ssh目录,

    chenqi@slave02:~$ mv authorized_keys ~/.ssh/
    
④验证免密登录
  1. 在master虚拟机上远程登录slave01

    chenqi@master:~$ ssh slave01
    

    如果出现如图所示的内容表示免密钥配置成功。

    在这里插入图片描述

  2. 退出slave01远程登录

    chenqi@slave01:~$ exit
    
  3. slave02同理

(3)安装JDK

说明:此处以界面虚拟机master的操作为例,slave01和slave02的操作如法炮制。

不同操作系统可能操作方法不同,百度对应操作即可

  1. 删除系统自带的jdk(如若出现如图6-21效果,说明系统自带java,需要先卸载)

    chenqi@master:~$ rpm -qa | grep java
    

    在这里插入图片描述

  2. 移除系统自带的jdk

    root@master:~# yum remove java-1.*
    
  3. 创建存放jdk文件目录

    root@master:~# mkdir /usr/java
    
  4. 解压JDK压缩包,将/home/chenqi/tgz下的JDK压缩包解压到/usr/java目录下

    root@master:~# tar -xzvf /home/chenqi/tar/jdk-8u371-linux-x64.tar.gz -C /usr/java
    

    hdoop和jdk的压缩包去官网上下载一个版本下来即可

    在这里插入图片描述

    slave01和02都要解压jdk

  5. 退出root用户

    root@master:~# exit
    
  6. 配置chenqi用户环境变量。

    chenqi@master:~$ vi .profile
    

    复制以下内容添加到上面打开的文件.bash_profile中,然后保存退出。

    export JAVA_HOME=/usr/java/jdk1.8.0_371/
    export PATH=$JAVA_HOME/bin:$PATH
    
  7. 使环境变量生效

    chenqi@master:~$ source /home/chenqi/.profile
    
  8. 测试是否配置成功

    chenqi@master:~$ java -version
    

(4)安装部署Hadoop集群(chenqi用户)

注意:每个虚拟机上的Hadoop配置基本相同,在master虚拟机上操作,然后复制到slave01、slave02两个虚拟机即可。

1.解压缩包
chenqi@master:~$ tar -xzvf /home/chenqi/tar/hadoop-3.3.6.tar.gz -C /home/chenqi
2.配置文件

• workers : 配置从节点( DataNode )有哪些
• hadoop-env.sh : 配置 Hadoop 的相关环境变量
• core-site.xml : Hadoop 核心配置文件
• hdfs-site.xml : HDFS 核心配置文件

①配置hadoop-env.sh文件

chenqi@master:~$ vi /home/chenqi/hadoop-3.3.6/etc/hadoop/hadoop-env.sh

复制以下内容添加到上面打开的文件hadoop-env.sh中,然后保存退出。

export JAVA_HOME=/usr/java/jdk1.8.0_371/

②配置yarn-env.sh文件。

chenqi@master:~$ vi ~/hadoop-3.3.6/etc/hadoop/yarn-env.sh

复制以下内容添加到上面打开的文件yarn-env.sh中,然后保存退出。

export JAVA_HOME=/usr/java/jdk1.8.0_371/

③配置core-site.xml 文件。

chenqi@master:~$ vi ~/hadoop-3.3.6/etc/hadoop/core-site.xml

复制以下内容替换core-site.xml中的内容,然后保存退出。

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>    
	 <property>        
		    <name>fs.defaultFS</name>       
     		<value>hdfs://master:9000</value>    
     </property>   
     <property>        
     		<name>hadoop.tmp.dir</name>        
     		<value>/home/chenqi/hadoopdata</value>    
     </property>
</configuration>

fs.defaultFS:HDFS的默认访问路径,也是NameNode的访问地址。

hadoop.tmp.dir:Hadoop数据文件的存放目录。该参数如果不配置默认指向/tmp目录,而/tmp目录在系统重启后会自动清空,从而导致Hadoop的文件系统数据丢失。

最后测试的时候如果没有9000端口,将master改成对应的地址

④配置hdfs-site.xml文件。

chenqi@master:~$ vi ~/hadoop-3.3.6/etc/hadoop/hdfs-site.xml

复制以下内容替换hdfs-site.xml中的内容,然后保存退出。

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>     

    	<!-- 测试环境指定HDFS副本的数量1 -->
    	<property>
			<name>dfs.replication</name>        
			<value>2</value>    
		</property>
</configuration>

dfs.replication:文件在HDFS系统中的副本数。

dfs.permission.enabled:是否检查用户权限。

dfs.namenoder:NameNode节点数据在本地文件系统的存放位置。

dfs.datanode.data.dir:DataNode节点数据在本地文件系统的存放位置。

⑤配置yarn-site.xml文件。

chenqi@master:~$ vi ~/hadoop-3.3.6/etc/hadoop/yarn-site.xml

6.9.6.2复制以下内容替换yarn-site.xml中的内容,然后保存退出。(如果已经有这样的内容,直接退出。)

<?xml version="1.0"?>
<configuration>    
	<property>        
		<name>yarn.nodemanager.aux-services</name>        
		<value>mapreduce_shuffle</value>    
    </property>    
    <property>        
		<name>yarn.resourcemanager.address</name>        
         <value>master:18040</value>    
    </property>    
    <property>        
         <name>yarn.resourcemanager.scheduler.address</name>       
         <value>master:18030</value>    
    </property>    
    <property>        
         <name>yarn.resourcemanager.resource-tracker.address</name>        
         <value>master:18025</value>    
    </property>    
    <property>        
         <name>yarn.resourcemanager.admin.address</name>        
         <value>master:18141</value>    
    </property>    
    <property>        
         <name>yarn.resourcemanager.webapp.address</name>        
         <value>master:18088</value>    
    </property>
</configuration>

yarn.nodemanager.aux:NodeManager上运行的附属服务,需配置成mapreduce_shuffle才可运行Mapreduce程序。YARN提供了该配置项用于在NodeManager上扩展自定义服务,Mapreduce的Shuffle功能正是一种扩展服务。


yarn.resourcemanager.address:指定ResourceManager所在的节点与访问端口,如果不添加,ResourceManager则默认执行在YARN启动命令的节点上启动。

⑥配置mapred-site.xml文件。

chenqi@master:~$ vi ~/hadoop-3.3.6/etc/hadoop/mapred-site.xml

复制以下内容替换mapred-site.xml中的内容,然后保存退出。

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>    
	<property>        
		<name>mapreduce.framework.name</name>        
		<value>yarn</value>    
	</property>
</configuration>

mapreduce.framework.name:指定 Mapreduce 程序运行在 YARN上

⑦配置workers文件。

chenqi@master:~$ vi ~/hadoop-3.3.6/etc/hadoop/workers

通过workers文件定义数据节点,根据集群规划,我们将两个节点都要作为数据节点,添上:

slave01
slave02
3.创建Hadoop数据目录
chenqi@master:~$ mkdir hadoopdata
4.将配置好的hadoop文件夹复制到从节点

用scp命令将文件夹复制到slave01、slave02上。

注意:因为之前已经配置了免密钥登录,这里可以直接免密钥远程复制。

chenqi@master:~$ scp -r hadoop-3.3.6 chenqi@slave01:~/chenqi@master:~$ scp -r hadoop-3.3.6 chenqi@slave02:~/

复制完成后,可以在slave01和slave02上检验是否复制成功。在用户主目录下ls一下就行

5.配置Hadoop环境变量

说明:此处以界面虚拟机master的操作为例,slave01和slave02的操作如法炮制。

使用vi命令编辑.bash_profile文件。

chenqi@master:~$ vi .profile

复制以下内容添加到.bash_profile末尾,然后保存退出。(如果已经有这样的内容,直接退出。)

#HADOOP
export HADOOP_HOME=/home/chenqi/hadoop-3.3.6
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

使环境变量生效。

chenqi@master:~$ source ~/.profile
6.格式化Hadoop文件目录

注意:此操作在master虚拟机上执行。

格式化命令如下。

chenqi@master:~$ hdfs namenode –format

在这里插入图片描述

图6-45 格式化master虚拟机(1)

在这里插入图片描述

图 6-46格式化master虚拟机(2)

7.启动Hadoop集群

在master虚拟机上运行start-all.sh命令。(格式化后首次执行此命令,提示输入yes/no时,输入yes。)

chenqi@master:~$ start-all.sh

查看进程是否启动。

注意:前面那些数字是进程号,可能因为自己的实验环境不同而不同。

在这里插入图片描述

在slave01虚拟机上的终端执行jps命令,出现如图 :

在这里插入图片描述

在slave02虚拟机上的终端执行jps命令,出现如图:

!在这里插入图片描述

(5)测试

①Web UI查看集群是否成功启动

在浏览器地址栏中输入http://master:50070,检查namenode和 datanode 是否正常,如图6-50、6-51、6-52所示。

netstat -ntpl查看自己的

在这里插入图片描述

查看集群namenode 和 datanode情况、检查Yarn是否正常
在这里插入图片描述

②运行PI实例检查集群是否成功

执行下面的命令。(Pi后面的第一个参数10是Map任务的数量,第二个10是求圆周率Pi的算法的参数。)

[zkpk@master~]$ hadoop jar ~/hadoop-3.3.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar pi 10 10

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

最后输出:Estimated value of Pi is 3.20000000000000000000,这个值还不够精确,可以通过调整那两个参数逐渐逼近3.1415926……。

问题描述:Could not find or load main class org.apache.hadoop.mapreduce.v2.app.MRAppMaster

解决方法:

第一种:在mapred-site.xml中添加以下配置

<property>
    <name>yarn.app.mapreduce.am.env</name>
    <value>HADOOP_MAPRED_HOME=${hadoop-3.3.6}</value>
</property>
<property>
    <name>mapreduce.map.env</name>
    <value>HADOOP_MAPRED_HOME=${hadoop-3.3.6}</value>
</property>
<property>
    <name>mapreduce.reduce.env</name>
    <value>HADOOP_MAPRED_HOME=${hadoop-3.3.6}</value>
</property>

第二种:如果上述方法不行,采用下面方式

执行下面命令

hadoop classpath

拿到运行的类的路径,如下图:

img

在Hadoop安装目录下找到yarn-site.xml文件($HADOOP_HOME/etc/hadoop/yarn-site.xml),把刚才得到的信息配置进去,如下:

<configuration>
  <property>
    <name>yarn.application.classpath</name>
    <value>复制的Hadoop classpath信息</value>
  </property>
</configuration>

img

在所有的Master和Slave节点进行如上设置,设置完毕后重启Hadoop集群,重新运行刚才程序,成功运行。

猜你喜欢

转载自blog.csdn.net/qq_45491628/article/details/132942885