hadoop+Spark+hbase集群动态增加节点

如果一个集群资源不够用需要扩展的时候怎么办,那么是可以不关机动态扩展的,具体操作如下:
 
 
 
  
 
 
 
192.168.111.11 lyy1 ---master节点
 
 
192.168.111.12 lyy2
 
 
192.168.111.13 lyy3
 
 
192.168.111.14 lyy4
 
 
新增:
 
 
192.168.111.15 lyy5
 
 
192.168.111.16 lyy6
1.从lyy1节点克隆出两台虚拟机,保证所有配置和软件一样,然后修改ip和hostname
(本集群是基于proxmox的虚拟集群,可以很方便的复制、开关虚拟机等,如果是物理集群可以把master节点镜像拷贝给新节点)
 
 
 
 
vim /etc/network/interfaces
 
 
vim /etc/hostname
2.修改vim /etc/hosts,加入ip映射。使用批处理命令并同步到所有机器
 
 
 
 
for i in $(seq 1 6); do echo lyy$i; scp /etc/hosts root@lyy$i:/etc/;done
同时还要修改hadoop的workers,spark的slaves,hbase的regionservers,增加主机名
 
 
 
 
for i in $(seq 1 6); do echo lyy$i; scp /opt/hadoop-3.0.0/etc/hadoop/workers root@lyy$i:/opt/hadoop-3.0.0/etc/hadoop;done
 
 
for i in $(seq 2 6); do echo lyy$i; scp /opt/hbase-1.2.4/conf/regionservers root@lyy$i:/opt/hbase-1.2.4/conf;done
 
 
for i in $(seq 2 6);do echo lyy$i; scp /opt/spark-2.2.0-bin-hadoop2.7/conf/slaves root@lyy$i:/opt/spark-2.2.0-bin-hadoop2.7/conf;done
 
 

 
 
还要同步hbase-site.xml配置文件
 
 
for i in $(seq 2 6); do echo lyy$i; scp /opt/hbase-1.2.4/conf/hbase-site.xml root@lyy$i:/opt/hbase-1.2.4/conf;done
 
 
for i in $(seq 1 6); do echo lyy$i; ssh lyy$i "cp /opt/hbase-1.2.4/conf/hbase-site.xml /opt/spark-2.2.0-bin-hadoop2.7/conf && cp /opt/hbase-1.2.4/conf/hbase-site.xml /opt/hadoop-3.0.0/etc/hadoop";done
注:不用重启集群,直接在新增的节点上分别启动以下进程即可:
3.hadoop增加datanode节点
 
 
 
 
hadoop-daemon.sh start datanode 启动DataNode进程
 
 
yarn-daemon.sh start nodemanager 启动NodeManager进程
4.spark新增worker节点
 
 
 
  
 
5.hbase新增RegionServer
 
 
 
 
hbase-daemon.sh start regionserver 启动HRegionServer进程
 
 
hbase-daemon.sh start zookeeper 启动HquorumPeer进程
 
 
hbase shell 中输入status查看集群状态
6.负载均衡
 
 
 
 
如果不balance,那么cluster会把新的数据都存放在新的node上,这样会降低工作效率:
 
 
查看hdfs节点状态: hdfs dfsadmin –report
 
 
1048576(=1Mb/s)
 
 
104857600(=100Mb/s)
 
  
 
 
 
#设置不同节点之间复制数据的带宽是受限的,默认是1MB/s
 
  
 
 
 
#设置如果某个datanode的磁盘里使用率比平均水平高出1%,Blocks向其他低于平均水平的datanode中传送, 也就是每个节点使用率相差不超过1%。
 
 
或者:
 
 
start-balancer.sh
 
 
stop-balancer.sh

负载均衡之前的使用率
负载均衡之后各节点硬盘使用率趋于平衡:

负载均衡之后的使用率
此外Hbase也需要负载均衡:
hbase shell中输入: balance_switch true
至此可以就完成了节点扩展,现在集群已经有6个节点了,可以分别在hadoop、spark、hbase的监控页面上查看到节点。

猜你喜欢

转载自blog.csdn.net/sinadrew/article/details/79972557