Hbase2.0.0 集群安装

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/hwm_life/article/details/82051416

Hbase集群安装

hbase集群安装本身不难,关键是安装时要选对版本,本次hbase安装zookeeper采用hbase自带的即可,大概步骤如下:

  • 选择与Hbase匹配的Hadoop版本
  • 下载对应的软件包
  • 安装hadoop集群
  • 安装hbase集群
  • 安装phoenix

Hbase与Hadoop版本选择

版本的选择一定要正确,否则安装过程中会遇到很多问题,在hbase官网我们可以看到匹配信息,本次安装选择Hbase-2.0.0(hadoop 选择的是2.7.7版本,因为该版本支持的HBase版本更多,兼容性更好;Hbase选择2.0.0版本时因为写该博客时,PHOENIX对HBase只支持到了2.0.x,我当时用HBase-2.1.0 集成apache-phoenix-5.0.0-Hbase-2.0-bin.tar.gz 死活不成功,改为HBase-2.0.0就可以,至于HBase-2.0.1是否可以没有测过)
在这里插入图片描述

JDK版本也有要求,因此我们选择JDK8

在这里插入图片描述

安装包下载

JDK8:
HADOOP:
HBase:

JDK安装

参考:Centos下JDK安装

HADOP安装

参考:Hadoop-2.7.7完全分布式安装

Hbase安装

集群规划
hadoop-namenode  hmaster
hadoop-slave regisonserver
hadoop-slave2 regisonserver
hadoop-slave3 regisonserver

节点间相互添加hosts文件,分发到其它节点,方便通过hostname访问对应的机器

192.168.222.14 hadoop-namenode-yarn
192.168.222.15 hadoop-slave
192.168.222.16 hadoop-slave2
192.168.222.17 hadoop-slave3

安装以hadoop-namenode为例讲解,安装完毕后分发到其它节点即可

免密登录

hadoop-namenode,hadoop-slave,hadoop-slave2,hadoop-slave3 这几台机器间的免密登录
参考:Hadoop-2.7.7完全分布式安装(SSH免密登录部分)

解压

tar -zxvf hbase-2.0.0-bin.tar.gz -C /usr/local
cd /usr/local
mv hbase-2.0.0 hbase

修改conf/hbase-env.sh

export JAVA_HOME=/usr/local/jdk8  # jdk安装路径
export HBASE_MANAGES_ZK=true # 启用hbase自带的zk,zookeeper也可以另外安装,这里不讲解

更多参数调整参考官网:

修改hbase-site.xml

<configuration>
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://hadoop-namenode-yarn:9000/hbase</value>
        <description>这里指向的是hadoop集群namenode的地址</description>
    </property>
    <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>/home/root/zookeeper</value>
        <description>zookeeper存储数据的目录</description>
    </property>
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
        <description>启用分布式模式</description>
    </property>
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>hadoop-namenode-yarn,hadoop-slave,hadoop-slave2</value>
        <description>zookeeper所在机器地址,用逗号隔开</description>
    </property>
    <property>
        <name>hbase.master</name>
        <value>hadoop-namenode-yarn:60000</value>
        <description>hbase集群master节点地址</description>
    </property>
    <property>
        <name>hbase.temp.dir</name>
        <value>/home/root/hbase/temp</value>
        <description>hbase临时目录</description>
    </property>
</configuration>

修改regionservers(该文件记录的是regionserver的地址)(该问价修改只在hmaster节点进行,regionserver节点不修改,在master节点启动集群时,会读取该配置文件,hbase会自动去启动个子节点)

hadoop-slave
hadoop-slave2
hadoop-slave3

通过scp -r 命令复制到其它节点

scp -r hbase root@hadoop-slave:/usr/local/

在master节点启动和停止hbase

cd /usr/local/hbase
./bin/start-hbase.sh #启动hbase
./bin/stop-hbase.sh #停止hbase

启动后可以通过页面访问查看集群情况
http://hadoop-namenode:16010
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/hwm_life/article/details/82051416
今日推荐