虚拟机安装完全分布式Hadoop集群

vmware15安装完全分布式hadoop集群

安装环境

1、VMware15

2、centerOS 7

3、Hadoop-2.7.4

4、Xshell6

5、Windows10

6、FileZilla

7、Java8

目录

一、创建空白虚拟机

1.1 创建新的虚拟机

在这里插入图片描述

1.2 自定义创建虚拟机

在这里插入图片描述

1.3 选择虚拟机的硬件兼容性

在这里插入图片描述

1.4 选择稍后安装操作系统

在这里插入图片描述

1.5 选择系统类型

在这里插入图片描述

1.6 输入虚拟机名字

在这里插入图片描述

1.7 选择虚拟机配置

在这里插入图片描述
在这里插入图片描述

1.8 选择虚拟机网络配置

在这里插入图片描述

1.9 选择I/O控制器类型

在这里插入图片描述

1.10 选择虚拟机磁盘类型

在这里插入图片描述

1.11 选择虚拟机存储参数

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二、装载ISO文件安装系统

2.1 装载系统

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.2 安装系统

2.2.1 开启虚拟机

在这里插入图片描述

2.2.2 install centeros 7

在这里插入图片描述

2.2.3 选择系统语言为English

在这里插入图片描述

2.2.4 选择时区

在这里插入图片描述
在这里插入图片描述

2.2.5 选择安装源为本地安装

在这里插入图片描述
在这里插入图片描述

2.2.6 选择安装模式为最小安装

在这里插入图片描述
在这里插入图片描述

2.2.7 选择安装目标

在这里插入图片描述
在这里插入图片描述

2.2.8 选择网络

在这里插入图片描述
在这里插入图片描述

2.3 输入root密码

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这个密码由你开心随便设定,只要你记得住就行

2. !!!特别提示!!!

在这里插入图片描述
用户可创建可不创建,个人建议创建,保证你的机子安全,本机因为只有我个人使用所有并不创建新的用户

2.4 耐心等待安装完成并重启

在这里插入图片描述

三、登陆(使用你创建的用户密码)

在这里插入图片描述

四、创建文件夹以便后续操作

在这里插入图片描述

mkdir -p /software/download
mkdir -p /software/data
mkdir -p /software/tool

五、克隆虚拟机

5.1 关闭虚拟机

shutdown

5.2 克隆虚拟机

在这里插入图片描述

5.2.1 下一步

在这里插入图片描述

5.2.2 选择虚拟机中的当前状态并下一步

在这里插入图片描述

5.2.3 创建完整克隆并下一步

在这里插入图片描述

5.2.4 选择克隆机位置

在这里插入图片描述

5.2.5 等待完成

在这里插入图片描述
在这里插入图片描述

5.2.6 克隆Hadoop03步骤如上

5.2. 结果

在这里插入图片描述

六、配置网络

6.1 开启Windows的VMware网络进程

在这里插入图片描述
在这里插入图片描述
这五个进程在进行网络配置前需要确保都是开启状态的

6.2 配置虚拟网络编辑器的NAT模式参数

在这里插入图片描述
在这里插入图片描述

6.3 修改参数

在这里插入图片描述

6.3.1修改NAT参数

在这里插入图片描述

6.3.2 修改DHCP参数

在这里插入图片描述

6.4 配置Windows网络

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

6.5 修改hostname

6.5.0 使用xshell连接虚拟机

#查看主机名
hostname
#修改主机名
hostnamectl set-hostname hadoop01
hostnamectl set-hostname hadoop02
hostnamectl set-hostname hadoop03

6.6 修改mac地址

VMware克隆虚拟机后修改UUID、MAC地址、IP和主机名
一般来说不需要配置,如遇问题可参照这个文档处理

6.6.1 修改UUID

uuidgen
#会有一段id,可以复制其id
vi /etc/sysconfig/network-scripts/ifcfg-ens33 
#修改UUID为复制的ID,只需要修改Hadoop02和Hadoop03

6.6.2 修改IP

centos7永久修改ip地址
主要修改的参数为:

#需要修改的参数
BOOTPROTO="static"
#你的主机IP
IPADDR="192.168.121.128"
#你的网关IP
GATEWAY="192.168.121.2"
#你的子网掩码
NETMASK="255.255.255.0"
#你的DNS服务器地址
DNS1="114.114.114.114"
DNS2="8.8.8.8"

!!!需要修改3个主机的
!修改完后:

service network restart

6.6.3 配置IP映射

vi /etc/hosts

按键盘install,输入以下内容:

“IP1” Hadoop01
“IP2” Hadoop02
“IP3” Hadoop03

按ESC+:wq退出文件并保存

6.6.4 配置免密登陆

6.6.4.1 生出各自的公、私钥

ssh-keygen -t rsa

Hadoop01、Hadoop02、Hadoop03都执行一次该命令

6.6.4.2 将Hadoop02、03的公私钥传送给Hadoop01

ssh-copy-id hadoop01

Hadoop01、Hadoop02、Hadoop03都执行一次该命令,每次都是输入Hadoop01的密码

6.6.4.3 将Hadoop01汇总后的公私钥分发给Hadoop02、03

scp /root/.ssh/authorized_keys hadoop02:/root/.ssh
scp /root/.ssh/authorized_keys hadoop03:/root/.ssh

此处输入的密码均为Hadoop02、03的密码

6.6.4.4 检查是否实现免密登陆

ssh hadoop02
ssh hadoop03

如果不需要密码即可登陆则说明配置成功

七、安装jdk

7.1 使用FileZilla连接你的虚拟机

7.2 上传文件

在这里插入图片描述

7.3 解压文件

tar -zxvf jdk-8u161-linux-x64.tar.gz 

7.4 将解压后的文件转移到你的软件存放路径并改名为你熟悉的名字

mv jdk1.8.0_161 /software/tool/jdk

7.5 配置profile文件

vi /etc/profile

在文件的最末尾按install输入:

export JAVA_HOME=/software/tool/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

按ESC+:wq结束配置文件输入

7.6 应用配置文件

source /etc/profile

7.7 验证

java -version

成功的结果图:
在这里插入图片描述

八、安装hadoop

8.1 解压压缩包

tar -zxvf hadoop-2.7.4.tar.gz 

8.2 将解压出来的文件转移到你的软件存放文件夹并更名为熟悉的名字

mv hadoop-2.7.4 /software/tool/hadoop

8.3 配置PATH

vi /etc/profile

在文件的最尾部按install输入

export HADOOP_HOME=/software/tool/hadoop
export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

按ESC+:wq结束配置文件输入

source /etc/profile

8.4 验证

hadoop version

配置成功的结果图:
在这里插入图片描述

九、Hadoop环境配置

9.1 配置Hadoop主节点数据

进入Hadoop的配置文件存放文件夹

cd /software/tool/hadoop/etc/hadoop

9.1.1 配置hadoop-env.sh

vi hadoop-env.sh

在文件中间会发现如图的代码段
在这里插入图片描述
将JAVA_HOME后面的路径改成你的java路径

export JAVA_HOME=/software/tool/jdk

ESC+:wq退出配置文件编写

9.1.2 配置 core-site.xml 文件

vi core-site.xml

进入后会看到如图
在这里插入图片描述
在<configuration></configuration>间输入以下代码:

<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:9000</value>
 </property>
 <property>
 <name>hadoop.tmp.dir</name>
 <value>/software/tool/hadoop/tmp</value>
 </property>

ESC+:wq退出配置文件编写

9.1.3 配置hdfs-site.xml文件

 vi hdfs-site.xml

进去后的界面为:
在这里插入图片描述
在<configuration></configuration>间输入以下内容:

<property>
 <name>dfs.replication</name>
 <value>3</value>
 </property>
 <property>
 <name>dfs.namenode.secondary.httpaddress</name>
 <value>hadoop02:50090</value>
 </property>

按ESC+:wq结束配置文件编写

9.1.4 配置mapred-site.xml 文件

9.1.4.1 改名
mv mapred-site.xml.template mapred-site.xml
9.1.4.2 进入配置文件
vi mapred-site.xml
9.1.4.3 输入参数

进入后的结果如图:
在这里插入图片描述
在<configuration></configuration>间输入以下内容:

<!-- 指定MapReduce 运行时框架,这里指定在Yarn 上,默认是 local -->
 <property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
 </property>

ESC+:wq退出配置文件编写

9.1.5 配置 yarn-site.xml 文件

vi yarn-site.xml

打开后界面应该是:
在这里插入图片描述
在<configuration></configuration>间输入以下内容:

<property>
 <name>yarn.resourcemanager.hostname</name>
 <value>hadoop01</value>
 </property>
 <property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
 </property>

按ESC+:wq结束配置文件编写

9.1.6 配置slaves文件

vi slaves

进去后的样子为:
在这里插入图片描述
改为:
在这里插入图片描述
按install输入,并退格删除localhost,输入以下内容:

hadoop01
hadoop02
hadoop03

按ESC+:wq结束配置文件编写

9.2 将Hadoop01的文件与Hadoop02、03文件同步

scp /etc/profile hadoop02:/etc/profile
scp /etc/profile hadoop03:/etc/profile
scp -r /software/ hadoop02:/
scp -r /software/ hadoop03:/

9.3 配置文件应用

在hadoop02上:

source /etc/profile

在hadoop03上:

source /etc/profile

十、验证

10.1 格式化namenode

hdfs namenode -format

10.2 启动hadoop集群

start-all.sh

10.3 验证

hadoop01:

jps

在这里插入图片描述
hadoop02:

jps

在这里插入图片描述
hadoop03:

jps

在这里插入图片描述

10.4 查看UI界面(进不去关闭防火墙)

在Windows的浏览器中输入你的namenode的IP地址加:50070就可看到hdfs的界面

http://192.168.121.128:50070/

结果图:
在这里插入图片描述

http://192.168.121.128:8088/

结果图:
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_44843672/article/details/109449619