hadoop hbase的datanode分离

本来搭建了一个mapreduce集群,使用了hbase。

但需要将mapreduce分成两个,一个专门跑优先级高的任务,另一个专门跑优先级低的任务。

但因为hbase的原因,hdfs却不能分成两个,考虑配置hdfs的slaves配置文件conf/slaves,修改为conf/slaves_hdfs。

待测试。

猜你喜欢

转载自jianzong2000.iteye.com/blog/1861022