hadoop动态增加删除节点

在master的conf/hdfs-site.xml中加入

<property> <name>dfs.hosts.exclude</name> <value>excludes</value> </property>

在$HADOOP_HOME下创建exclueds文件

文件内容增加你想删除的节点,一行一个

/bin/hadoop dfsadmin -refreshNodes命令刷新datanode例表

/bin/hadoop dfsadmin -report查看结果

Datanodes available: 1 (1 total, 0 dead)


Name: 192.168.200.118:50010
Decommission Status : Decommission in progress
Configured Capacity: 211370565632 (196.85 GB)
DFS Used: 11459694592 (10.67 GB)
Non DFS Used: 187135799296 (174.28 GB)
DFS Remaining: 12775071744(11.9 GB)
DFS Used%: 5.42%
DFS Remaining%: 6.04%
Last contact: Wed Feb 22 23:51:48 PST 2012

在Decommission Status : Decommission in progress变为 Decommission Status : Decommission normal前mapreduce会异常

增加节点

在/conf/slaver文件中加入节点的hostname

在每个节点的hosts文件中加入新节点的hostname

在新节点的机器上执

/bin/./hadoop-daemon.sh start datanode

/bin/././hadoop-daemon.sh start tasktracker

数据负载均衡

1. 在Hadoop集群中新添加一个Datanode时,需要对集群数据进行负载均衡。

2. 在主节点运行bin/start-balancer.sh命令,可以添加参数-threshold 5,threshold是平衡阈值,默认是10%,值越小负载越均衡,但需要更长的时间去执行。

3. 添加s140到集群,执行负载均衡半个小时共负载了4G的数据

猜你喜欢

转载自skywhsq1987.iteye.com/blog/1856379