hadoop大数据平台手动搭建-hbase

hbase也是基于HDFS的.本节还是安装完全分布模式。由于各个节点时间误差太多,hbase启动会失败。所以先前已经安装了NTP时间同步服务。

跟hive一样将/opt/hbase-1.2.0-cdh5.8.0.tar.gz解压

tar -zxvf hbase-1.2.0-cdh5.8.0.tar.gz

1. 修改hbase-1.2.0-cdh5.8.0\conf下的hbase_env.sh

  添加如下配置

export JAVA_HOME=/usr/java/jdk1.7.0_79

#申明使用自带的Zookeeper.否则可安装单独的Zookeeper

export HBASE_MANAGES_ZK=true

2.修改hbase-1.2.0-cdh5.8.0\conf下的regionservers

slave1

slave2

也就是文件要分发到这两个节点上。

3. 配置环境变量

/etc/profile中加入

export HBASE_HOME=/opt/hbase-1.2.0-cdh5.8.0

export PATH=$HBASE_HOME/bin:$PATH

环境变量生效执行

source /etc/profile

4.配置hbase-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>  

    <property>

        <name>hbase.rootdir</name>

        <value>hdfs://master:9000/hbase</value>

    </property>

    <property>

        <name>hbase.zoopkeeper.property.dataDir</name>

        <value>/home/hadoop/software/zookeeper</value>

    </property>

    <property>

        <name>hbase.cluster.distributed</name>

        <value>true</value>

    </property>

    <property>

        <name>hbase.zookeeper.quorum</name>

        <value>master,slave1,slave2</value>

    </property>

<property>

    <name>hbase.zookeeper.property.clientPort</name>

    <value>2181</value>

   <description> 连接到zookeeper的端口,默认是2181</description>

  </property>

  <property>

    <name>hbase.master</name>

    <value>master</value>

    <description>指定 hbase 集群主控节点</description>

  </property>

<property><name>hbase.thrift.support.proxyuser</name><value>true</value></property>

<property><name>hbase.regionserver.thrift.http</name><value>true</value></property>

</configuration>  

5.拷贝master中的/opt/hbase-1.2.0-cdh5.8.0/目录到slave1,slave2

scp -r /opt/hbase-1.2.0-cdh5.8.0/ hadoop@slave1:/opt

scp -r /opt/hbase-1.2.0-cdh5.8.0/ hadoop@slave2:/opt

6.启动/opt/hbase-1.2.0-cdh5.8.0/bin/start-hbase.sh

主节点启动

 

 

 

猜你喜欢

转载自feilong2483.iteye.com/blog/2364850