Linux下安装Hadoop集群(1.基础环境配置)

1.在各个节点创建Hadoop账号

#关闭防火墙
systemctl stop firewalld
#创建名为hadoop的账号
useradd hadoop
#给名为hadoop的账号设置密码
passwd hadoop
#给hadoop账号设置免密登录权限
#1.给sudoers文件赋予权限
chmod +w /etc/sudoers
#2.打开sudoers文件进行编辑
vi /etc/sudoers
#在文件最后添加以下内容
hadoop ALL=(root)NOPASSWD:ALL
#取消sudoers文件的写权限
chmod -w /etc/sudoers
#给/etc/hosts读写权限
chmod 777 /etc/hosts

2.安装JDK

3.配置hosts系统文件(需要在hadoop账号下配置)

#切换到hadoop账号(su后输入你的hadoop账号的密码)
su hadoop
#编辑hosts文件
vi /etc/hosts
#添加以下内容(你的节点ip+dn1  dn1是别名,自己修改)
192.168.1.1 dn1
192.168.1.2 dn2
192.168.1.3 dn3
#利用scp命令将hosts文件分发到其他节点
scp /etc/hosts hadoop@dn2:/etc
scp /etc/hosts hadoop@dn3:/etc
#传输成功如下

在这里插入图片描述

#重启机器
sudo shutdown -r now

4.安装SSH

#生成该节点的公钥和私钥,一路按回车
ssh-keygen -t rsa
#将公钥文件内容追加到authorized_keys中
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
#给hadoop用户目录和authorized_keys赋予权限(用户目录权限为 755 或者 700,就是不能是77x)
chmod 700 /home/hadoop
chmod 600 ~/.ssh/authorized_keys
#其他节点使用ssh-keygen -t rsa创建密钥然后追加到dn1节点的authorized_keys中
#hadoop:账户名  dn1:别名
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@dn1
#将dn1的authorized_keys分发到其他节点
scp ~/.ssh/authorized_keys hadoop@dn2:~/.ssh/
scp ~/.ssh/authorized_keys hadoop@dn3:~/.ssh/
#测试(无需密码则表示成功)
ssh dn2

5.安装zookeeper

#需要注意的是安装后需要将安装的zookeeper拥有者切换成hadoop并在zookeeper的bin文件下运行否则会报权限不足
sudo chown -R hadoop zookeeper-3.4.14/
#启动zookeeper
./zkServer.sh start
发布了29 篇原创文章 · 获赞 8 · 访问量 752

猜你喜欢

转载自blog.csdn.net/qq_38650808/article/details/103897014