BigData--hadoop集群搭建之hbase安装

之前在hadoop-2.7.3 基础上搭建hbase 详情请见:https://www.cnblogs.com/aronyao/p/hadoop.html

基础条件:先配置完成zookeeper 

 准备软件包:zookeeper-3.4.10.tar.gz,hbase-1.3.1-bin.tar.gz(已测试兼容)

# hadoop-1 192.168.1.101 NameNode DataNode
$ hadoop-2 192.168.1.102 DataNode
$ hadoop-3 192.168.1.103 DataNode

Zookeeper安装详情请见:

安装HBase

cd /opt/
tar -zxvf hbase-1.3.1-bin.tar.gz
mv hbase-1.3.1 /opt/hbase

vim /usr/local/hbase-1.3.1/conf/hbase-env.sh

# 配置Java环境变量量
export JAVA_HOME=/usr/local/jdk1.8
# hbase使⽤用外部的zk(hbase 有自带zookeeper 一般建议用外部的zookeeper)
export HBASE_MANAGES_ZK=false

vim /usr/local/hbase-1.3.1/conf/hbase-site.xml

<configuration>
<!-- 指定hbase在HDFS上存储的路路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop-1:9000/hbase</value> ##根据自己设置的域名修改/hadoop-1
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个⽤用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop-1:2181,hadoop-2:2181,hadoop-3:2181</value>##同上
</property>
</configuration>

vim /usr/local/hbase-1.3.1/conf/regionservers

hadoop-2
hadoop-3

创建hdfs中数据存放路路径b
hdfs dfs -mkdir /user/hadoop/hbase

复制到其他节点
scp -r /usr/local/hbase-1.3.1/ root@hadoop-2:/usr/local/hbase-1.3.1
scp -r /usr/local/hbase-1.3.1/ root@hadoop-3:/usr/local/hbase-1.3.1
# 分别赋予权限
chown -R hadoop:hadoop /usr/local/hbase-1.3.1/

所有节点配置环境变量量
 vim /etc/profile
# hbase
export HBASE_HOME=/usr/local/hbase-1.3.1
export PATH=$HBASE_HOME/bin:$PATH
 source /etc/profile

启动集群
su hadoop
start-hbase.sh

通过JPS可以查看到主节点上有HMaster进程⼦子节点上有HRegionServer进程
网络可以访问Hbase管理理界⾯面 http://hadoop-1:16010

基本shell操作
通过如下命令可以进⼊入Hbase的shell操作界面

hbase shell
hbase(main):001:0>

⼀一般操作
查询服务器器状态
hbase(main):024:0>status
1 active master, 0 backup masters, 2 servers, 0 dead, 1.0000 average load

猜你喜欢

转载自www.cnblogs.com/aronyao/p/hbase.html
今日推荐