NameNode | DataNode | JournalNode | Zookeeper | Hmaster | HregionServer | |
node1 | 1 | 1 | ||||
node2 | 1 | 1 | 1 | 1 | 1 | |
node3 | 1 | 1 | 1 | 1 | ||
node4 | 1 | 1 | 1 | 1 | 1 |
1、将hbase安装包先解压到node1节点
2、修改配置文件
hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_11 export HBASE_MANAGES_ZK=false #(关闭Hbase本身的zookeeper集群)
hbase-site.xml
<property> <name>hbase.rootdir</name> <value>hdfs://node2:8020/hbase</value> <--在HDFS上创建一个干净的节点,用于存放元数据--> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> <--是否开启分布式--> </property> <property> <name>hbase.zookeeper.quorum</name> <value>node2,node3,node4</value> <--对应的zookeeper集群,不用加端口--> </property>
regionservers 从节点
node2 node3 node4
backup-masters配置(注意backup-masters需要手动创建)备份主
node4
3、将hdfs当中的hdfs-site.xml 拷贝hbase的conf目录下(因为存储数据需要在hdfs上)
cp /opt/hadoop-2.6.5/etc/hadoop/hdfs-site.xml /opt/hbase0.98/conf/
4、 将node1上的hbase分发到node2、node3、node4的当前路径下
scp -r hbase0.98/ root@node2:`pwd`
scp -r hbase0.98/ root@node3:`pwd`
scp -r hbase0.98/ root@node4:`pwd`
5、启动
在node1(Master节点) 执行 start-hbase.sh启动主节点。
在node4(backup-Master节点) 执行 start-hbase.sh启动备份节点。