1. 上传
首先确保用户是hadoop,用工具将hbase安装包hbase-0.99.2-bin.tar.gz上传到/home/hadoop下,确保hbase-0.99.2-bin.tar.gz的用户是hadoop,如果不是,执行chown命令,见上文
2. 解压
su – hadoop
tar –zxvf hbase-0.99.2-bin.tar.gz
3. 重命名
mv hbase-0.99.2 hbase
4. 修改环境变量
- 在master机器上执行下面命令:
su – root
vi/etc/profile
添加内容:
export HBASE_HOME=/home/hadoop/hbase
export PATH=$PATH:$HBASE_HOME/bin
执行命令:
source /etc/profile
su – hadoop
- 在其他机器上执行上述操作。
5. 修改配置文件
su – hadoop
将配置文件上传到/home/hadoop/hbase/conf文件夹下。
5.1、hbase-env.sh文件修改:
export JAVA_HOME=/usr/jdk //jdk安装目录
export HBASE_CLASSPATH=/home/hadoop/hadoop/conf //hadoop配置文件的位置,可省,但是需要手动拷贝拷贝hdfs-site.xml带conf目录
export HBASE_MANAGES_ZK=true #如果使用独立安装的zookeeper这个地方就是false
5.2、hbase-site.xml文件修改:
<!--
# 指定HDFS的根目录,在这个地方,如果想使用HBase高可用的话,必须配置成dfs.nameservices 不能配置节点名称
<property>
<name>hbase.rootdir</name>
<value>hdfs://lxk/hbase</value>
</property> -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node03,node04,node05</value>
</property>
hbase-site.xml <configuration> <property> <name>hbase.master</name> #hbasemaster的主机和端口 <value>master1:60000</value> </property> <property> <name>hbase.master.maxclockskew</name> #时间同步允许的时间差 <value>180000</value> </property> <property> <name>hbase.rootdir</name> <value>hdfs:// hadoop-cluster1/hbase</value>#hbase共享目录,持久化hbase数据 </property> <property> <name>hbase.cluster.distributed</name> #是否分布式运行,false即为单机 <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name>#zookeeper地址 <value>slave1, slave2,slave3</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name>#zookeeper配置信息快照的位置 <value>/home/hadoop/hbase/tmp/zookeeper</value> </property> </configuration>
|
5.3、Regionservers //是从机器的域名
node03
node04
node05
5.4、新建backup-masters文件
node04
单机版:hbase-site.xml文件
<property>
<name>hbase.rootdir</name>
<value>file:///home/testuser/hbase</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/hbase/tmp/zookeeper</value>
</property>
6、 把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
cp /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml /home/hadoop/hbase/conf
cp /home/hadoop/hadoop/etc/hadoop/core-site.xml /home/hadoop/hbase/conf
7. 发送到其他机器
scp -r hbase-0.98.12.1-hadoop2 node04:`pwd`
scp -r hbase-0.98.12.1-hadoop2 node05:`pwd`
scp /etc/profile node04:/etc/profile
scp /etc/profile node05:/etc/profile
8. 启动
su – hadoop
start-hbase.sh
9. 查看
进程:jps
进入hbase的shell:hbase shell
退出hbase的shell:quit
页面:http://master:60010/