hadoop 集群的搭建

搁置了半个月,还是想把它搭建起来,记录一下:
1.安装了centos 6,克隆了两个,然后利用crt 进行连接。
2.安装rz,为了上传文件方便。
3.安装jdk,配置环境变量。
4.有一个hadoop集成包,先上传,然后解压安装。
5.集群配置安装
修改五个配置文件:
然后把我们配置完的copy mini2,mini3 (先发安装包,在发配置环境)
目前在hadoop 目录 cd ..
scp -r /root/apps/hadoop/ root@mini2:/root/apps/
scp -r /root/apps/hadoop/ root@mini2:/root/apps/ 之前做了映射
环境变量传过去:
scp -r /etc/profile root@mini2:/etc/
scp -r /etc/profile root@mini3:/etc/
source /etc/profile
hadoop 集群启动
1.namenode 格式化操作:记录数据,初始化创建文件,

cd /root/apps/hadoop/tmp/dfs/name cd current/
hadoop-daemon.sh start namenode 启动namenode
hadoop-daemon.sh start datanode 启动datanode
(这个时候在第二第三台显示创建不成功,没有java环境,所以先装rz ,然后 装jdk ,再输入就有了datanode)
一键式启动:必须把文件配置在一个slaves 路径在/root/apps/hadoop/sbin/slaves转存到 mv ./slaves /root/apps/hadoop/etc/hadoop/
scp -r /root/apps/hadoop/etc/hadoop/slaves root@mini3:/root/apps/hadoop/etc/hadoop/

然后就可以一键脚本启动了 start-dfs.sh stop-dfs.sh

猜你喜欢

转载自blog.csdn.net/wuhuimin521/article/details/81434695