3.4.2 HBase 简介,数据模型,架构,安装,shell操作,原理深入(读写流程),机制(刷写,合并,拆分,),API操作,协处理器,RK设计原则,热点,二级索引,布隆过滤器

目录

第⼀部分 初识 HBase

第 1 节 HBase 简介

1.1 HBase是什么

1.2 HBase的特点

1.3 HBase的应⽤

第 2 节 HBase数据模型

HBase逻辑架构

HBase物理存储

第 3 节 HBase整体架构

Zookeeper

HMaster(Master)

HRegionServer(RegionServer)

Region

第 4 节 HBase集群安装部署

第 5 节 HBase shell 基本操作

3、查看表 list

4、创建表操作 create

5、添加数据操作 put

6、查询数据 get

6.1 通过rowkey进⾏查询

6.2 查看rowkey下⾯的某个列族的信息

6.3 查看rowkey指定列族指定字段的值

6.4 查看rowkey指定多个列族的信息

6.5 指定rowkey与列值查询

6.6 指定rowkey与列值模糊查询

6.7 查询所有数据 scan

6.8 列族查询 scan

6.9 指定多个列族与按照数据值模糊查询

6.10 rowkey的范围值查询 scan (⾮常重要)

6.11 指定rowkey模糊查询 

7、更新数据put

7.1 更新数据值

8、删除数据和表delete

8.1 指定rowkey以及列名进⾏删除

8.2 指定rowkey,列名以及字段值进⾏删除

8.3 删除列族 alter

8.4 清空表数据 truncate

8.5 删除表 disable + drop

第⼆部分 HBase原理深⼊

第 1 节 HBase读数据流程

第 2 节 HBase写数据流程

第 3 节 HBase的flush(刷写)及compact(合并)机制

Flush机制

阻塞机制

Compact合并机制

第 4 节 Region 拆分机制

4.1 拆分策略

1)ConstantSizeRegionSplitPolicy

2)IncreasingToUpperBoundRegionSplitPolicy

3)SteppingSplitPolicy

4)KeyPrefixRegionSplitPolicy

5)DelimitedKeyPrefixRegionSplitPolicy

6)DisabledRegionSplitPolicy

4.2 RegionSplitPolicy的应⽤

1)通过hbase-site.xml全局统⼀配置(对hbase所有表⽣效)

2)通过Java API为单独的表指定Region拆分策略

3)通过HBase Shell为单个表指定Region拆分策略

第 5 节 HBase表的预分区(region)

5.1 为何要预分区

第 6 节 Region 合并

6.1 Region合并说明

6.2 如何进⾏Region合并

通过Merge类冷合并Region

通过online_merge热合并Region

第三部分 HBase API应⽤和优化

第 1 节 HBase API客户端操作

初始化及释放资源方法

创建表:

插⼊数据

删除数据:

查询某个列族数据

通过Scan全表扫描

通过startRowKey和endRowKey进⾏扫描

第 2 节 Hbase 协处理器

2.1 协处理器概述

2.2 协处理器类型

Observer

Endpoint

Endpoint常⻅⽤途

2.3 协处理器Observer 案例

第 4 节 HBase表的RowKey设计

RowKey的基本介绍

RowKey⻓度原则

 RowKey散列原则

RowKey唯⼀原则

 RowKey排序原则

第 5 节 HBase表的热点

5.1 什么是热点

5.2 热点的解决⽅案

第 6 节 HBase的⼆级索引

第 7 节 布隆过滤器在hbase的应⽤

布隆过滤器应⽤

布隆过滤器的原理

Bloom Filter案例



第⼀部分 初识 HBase

第 1 节 HBase 简介

1.1 HBase是什么

HBase 基于 Google的BigTable论⽂⽽来,是⼀个分布式海量列式⾮关系型数据库系统,可以提供超⼤规模数据集的实时随机读写。

接下来,通过⼀个场景初步认识HBase列存储

如下MySQL存储机制,空值字段浪费存储空间

如果是列存储的话,可以这么玩......
rowkey:1 name:⼩明
rowkey:1 age:23
rowkey:1 job:学⽣
rowkey:2 name :⼩红
rowkey:2 salary:10w
rowkey:2 job:律师
....

列存储的优点:
1)减少存储空间占⽤。
2)⽀持好多列

1.2 HBase的特点

  • 海量存储: 底层基于HDFS存储海量数据
  • 列式存储:HBase表的数据是基于列族进⾏存储的,⼀个列族包含若⼲列
  • 极易扩展:底层依赖HDFS,当磁盘空间不⾜的时候,只需要动态增加DataNode服务节点就可以
  • ⾼并发:⽀持⾼并发的读写请求
  • 稀疏:稀疏主要是针对HBase列的灵活性,在列族中,你可以指定任意多的列,在列数据为空的情况下,是不会占⽤存储空间的。
  • 数据的多版本:HBase表中的数据可以有多个版本值,默认情况下是根据版本号去区分,版本号就是插⼊数据的时间戳
  • 数据类型单⼀:所有的数据在HBase中是以字节数组进⾏存储

1.3 HBase的应⽤

  • 交通⽅⾯:船舶GPS信息,每天有上千万左右的数据存储。
  • ⾦融⽅⾯:消费信息、贷款信息、信⽤卡还款信息等
  • 电商⽅⾯:电商⽹站的交易信息、物流信息、游览信息等
  • 电信⽅⾯:通话信息

总结:HBase适合海量明细数据的存储,并且后期需要有很好的查询性能(单表超千万、上亿,且并发要求⾼)

第 2 节 HBase数据模型

HBase的数据也是以表(有⾏有列)的形式存储

HBase逻辑架构

HBase物理存储

概念 描述
namespace 命名空间,类似于关系型数据库的database概念,每个命名空间下有多个表。HBase两个⾃带的命名空间,分别是hbase和default,hbase中存放的是HBase内置的表,default表是⽤户默认使⽤的命名空间。⼀个表可以⾃由选择是否有命名空间,如果创建表的时候加上了命名空间后,这个表名字以:作为区分!
Table 类似于关系型数据库的表概念。不同的是,HBase定义表时只需要声明列族即可,数据属性,⽐如超时时间(TTL),压缩算法(COMPRESSION)等,都在列族的定义中定义,不需要声明具体的列。

Row

(⼀⾏逻辑数据)

HBase表中的每⾏数据都由⼀个RowKey和多个Column(列)组成。⼀个⾏包含了多个列,这些列通过列族来分类,⾏中的数据所属列族只能从该表所定义的列族中选取,不能定义这个表中不存在的列族,否则报错NoSuchColumnFamilyException。

RowKey

(每⾏数据主键)

Rowkey由⽤户指定的⼀串不重复的字符串定义,是⼀⾏的唯⼀标识!数据是按照RowKey的字典顺序存储的,并且查询数据时只能根据RowKey进⾏检索,所以RowKey的设计⼗分重要。如果使⽤了之前已经定义的RowKey,那么会将之前的数据更新掉!

Column
Family(列族)

列族是多个列的集合。⼀个列族可以动态地灵活定义多个列。表的相关属性⼤部分都定义在列族上,同⼀个表⾥的不同列族可以有完全不同的属性配置,但是同⼀个列族内的所有列都会有相同的属性。列族存在的意义是HBase会把相同列族的列尽量放在同⼀台机器上,所以说,如果想让某⼏个列被放到⼀起,你就给他们定义相同的列族。
Column
Qualifier(列)
Hbase中的列是可以随意定义的,⼀个⾏中的列不限名字、不限数量,只限定列族。因此列必须依赖于列族存在!列的名称前必须带着其所属的列族!例如info:name,info:age

TimeStamp

(时间戳→版本)

⽤于标识数据的不同版本(version)。时间戳默认由系统指定,也可以由⽤户显式指定。在读取单元格的数据时,版本号可以省略,如果不指定,Hbase默认会获取最后⼀个版本的数据返回!
Cell ⼀个列中可以存储多个版本的数据。⽽每个版本就称为⼀个单元格(Cell)。

Region

(表的分区)

Region由⼀个表的若⼲⾏组成!在Region中⾏的排序按照⾏键(rowkey)字典排序。Region不能跨RegionSever,且当数据量⼤的时候,HBase会拆分Region。

第 3 节 HBase整体架构

Zookeeper

实现了HMaster的⾼可⽤

  • 保存了HBase的元数据信息,是所有HBase表的寻址⼊⼝

对HMaster和HRegionServer实现了监控

HMaster(Master)

为HRegionServer分配Region

  • 维护整个集群的负载均衡

维护集群的元数据信息

发现失效的Region,并将失效的Region分配到正常的HRegionServer上

HRegionServer(RegionServer)

负责管理Region

接受客户端的读写数据请求

切分在运⾏过程中变⼤的Region

Region

每个HRegion由多个Store构成,

每个Store保存⼀个列族(Columns Family),表有⼏个列族,则有⼏个Store,

每个Store由⼀个MemStore和多个StoreFile组成,MemStore是Store在内存中的内容,写到⽂件后就是StoreFile。StoreFile底层是以HFile的格式保存。

第 4 节 HBase集群安装部署

(1)下载安装包

http://archive.apache.org/dist/hbase/1.3.1/

hbase-1.3.1-bin.tar.gz

(2)规划安装⽬录

/opt/lagou/servers/

(3)上传安装包到服务器

(4)解压安装包到指定的规划⽬录

tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/lagou/servers

(5)修改配置⽂件

需要把hadoop中的配置core-site.xml 、hdfs-site.xml拷⻉到hbase安装⽬录下的conf⽂件夹中

ln -s /opt/lagou/servers/hadoop-2.9.2/etc/hadoop/core-site.xml /opt/lagou/servers/hbase-1.3.1/conf/core-site.xml

ln -s /opt/lagou/servers/hadoop-2.9.2/etc/hadoop/hdfs-site.xml /opt/lagou/servers/hbase-1.3.1/conf/hdfs-site.xml

修改conf⽬录下配置⽂件

修改 hbase-env.sh

#添加java环境变量
export JAVA_HOME=/opt/lagou/servers/jdk1.8.0_231

#指定使⽤外部的zk集群
export HBASE_MANAGES_ZK=FALSE

修改 hbase-site.xml

<configuration>
    <!-- 指定hbase在HDFS上存储的路径 -->
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://linux121:9000/hbase</value>
    </property>
    <!-- 指定hbase是分布式的 -->
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <!-- 指定zk的地址,多个用“,”分割 -->
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>linux121:2181,linux122:2181,linux123:2181</value>
    </property>
</configuraion>

修改regionservers⽂件

#指定regionserver节点
linux121
linux122
linux123

hbase的conf⽬录下创建⽂件backup-masters (Standby Master)

 linux122

(6)配置hbase的环境变量

export HBASE_HOME=/opt/lagou/servers/hbase-1.3.1
export PATH=$PATH:$HBASE_HOME/bin

(7)分发hbase⽬录和环境变量到其他节点

rsync-script /opt/lagou/servers/hbase-1.3.1/

rsync-script /etc/profile

(8)让所有节点的hbase环境变量⽣效

在所有节点执⾏ source /etc/profile

HBase集群的启动和停⽌

前提条件:先启动hadoop和zk集群
启动HBase:start-hbase.sh
停⽌HBase:stop-hbase.sh

HBase集群的web管理界⾯
启动好HBase集群之后,可以访问地址:HMaster的主机名:16010

第 5 节 HBase shell 基本操作

1、进⼊Hbase客户端命令操作界⾯

hbase shell

2、查看帮助命令

hbase(main):001:0> help

3、查看表 list

hbase(main):006:0> list

4、创建表操作 create

创建⼀张lagou表, 包含base_info、extra_info两个列族

hbase(main):001:0> create 'lagou', 'base_info', 'extra_info'

或者 (Hbase建表必须指定列族信息)
create 'lagou', {NAME => 'base_info', VERSIONS => '3'},{NAME => 'extra_info',VERSIONS => '3'}
  
VERSIONS 是指此单元格内的数据可以保留最近的 3 个版本

5、添加数据操作 put

向lagou表中插⼊信息,row key为 rk1,列族base_info中添加name列标示符,值为wang

hbase(main):001:0> put 'lagou', 'rk1', 'base_info:name', 'wang'

向lagou表中插⼊信息,row key为rk1,列族base_info中添加age列标示符,值为30

hbase(main):001:0> put 'lagou', 'rk1', 'base_info:age', 30

向lagou表中插⼊信息,row key为rk1,列族extra_info中添加address列标示符,值为shanghai

hbase(main):001:0> put 'lagou', 'rk1', 'extra_info:address', 'shanghai'

6、查询数据 get

6.1 通过rowkey进⾏查询

获取表中row key为rk1的所有信息

hbase(main):001:0> get 'lagou', 'rk1'

6.2 查看rowkey下⾯的某个列族的信息

获取lagou表中row key为rk1,base_info列族的所有信息

hbase(main):001:0> get 'lagou', 'rk1', 'base_info'

6.3 查看rowkey指定列族指定字段的值

获取表中row key为rk1,base_info列族的name、age列标示符的信息

hbase(main):008:0> get 'lagou', 'rk1', 'base_info:name', 'base_info:age'

6.4 查看rowkey指定多个列族的信息

获取lagou表中row key为rk1,base_info、extra_info列族的信息

hbase(main):010:0> get 'lagou', 'rk1', 'base_info', 'extra_info'

或者
hbase(main):011:0> get 'lagou', 'rk1', {COLUMN => ['base_info', 'extra_info']}

或者
hbase(main):012:0> get 'lagou', 'rk1', {COLUMN => ['base_info:name', 'extra_info:address']}

6.5 指定rowkey与列值查询

获取表中row key为rk1,cell的值为wang的信息

hbase(main):001:0> get 'lagou', 'rk1', {FILTER => "ValueFilter(=, 'binary:wang')"}

6.6 指定rowkey与列值模糊查询

获取表中row key为rk1,列标示符中含有a的信息

hbase(main):001:0> get 'lagou', 'rk1', {FILTER => "(QualifierFilter(=,'substring:a'))"}

6.7 查询所有数据 scan

查询lagou表中的所有信息

hbase(main):000:0> scan 'lagou'

6.8 列族查询 scan

查询表中列族为 base_info 的信息

hbase(main):001:0> scan 'lagou', {COLUMNS => 'base_info'}
hbase(main):002:0> scan 'lagou', {COLUMNS => 'base_info', RAW => true, VERSIONS => 3}

## Scan时可以设置是否开启Raw模式,开启Raw模式会返回包括已添加删除标记但是未实际删除的数据
## VERSIONS指定查询的最⼤版本数

6.9 指定多个列族与按照数据值模糊查询

查询lagou表中列族为 base_info 和 extra_info且列标示符中含有a字符的信息

hbase(main):001:0> scan 'lagou', {COLUMNS => ['base_info', 'extra_info'], FILTER => "(QualifierFilter(=,'substring:a'))"}

6.10 rowkey的范围值查询 scan (⾮常重要)

  • 查询lagou表中列族为base_info,rk范围是[rk1, rk3)的数据(rowkey底层存储是字典序)
  • 按rowkey顺序存储。

hbase(main):001:0> scan 'lagou', {COLUMNS => 'base_info', STARTROW => 'rk1', ENDROW => 'rk3'}

6.11 指定rowkey模糊查询 

查询lagou表中row key以rk字符开头的

hbase(main):001:0> scan 'lagou',{FILTER=>"PrefixFilter('rk')"}

7、更新数据put

更新操作同插⼊操作⼀模⼀样,只不过有数据就更新,没数据就添加

7.1 更新数据值

把lagou表中rowkey为rk1的base_info列族下的列name修改为liang

hbase(main):030:0> put 'lagou', 'rk1', 'base_info:name', 'liang'

8、删除数据和表delete

8.1 指定rowkey以及列名进⾏删除

删除lagou表row key为rk1,列标示符为 base_info:name 的数据

hbase(main):002:0> delete 'lagou', 'rk1', 'base_info:name'

8.2 指定rowkey,列名以及字段值进⾏删除

删除lagou表row key为rk1,列标示符为base_info:name的数据

hbase(main):033:0> delete 'lagou', 'rk1', 'base_info:name', 'liang'

8.3 删除列族 alter

删除 base_info 列族

hbase(main):035:0> alter 'lagou', 'delete' => 'base_info'

8.4 清空表数据 truncate

删除lagou表数据 

hbase(main):001:0> truncate 'lagou'

8.5 删除表 disable + drop

删除lagou表

#先disable 再drop

hbase(main):036:0> disable 'lagou'
hbase(main):037:0> drop 'lagou'

#如果不进⾏disable,直接drop会报错
ERROR: Table user is enabled. Disable it first.

第⼆部分 HBase原理深⼊

第 1 节 HBase读数据流程

HBase读操作

1)⾸先从zk找到meta表的region位置,然后读取meta表中的数据,meta表中存储了⽤户表的region信息
2)根据要查询的namespace、表名和rowkey信息。找到写⼊数据对应的region信息
3)找到这个region对应的regionServer,然后发送请求
4)查找对应的region
5)先从memstore查找数据,如果没有,再从BlockCache上读取
HBase上Regionserver的内存分为两个部分

  • ⼀部分作为Memstore,主要⽤来写;
  • 另外⼀部分作为BlockCache,主要⽤于读数据;

6)如果BlockCache中也没有找到,再到StoreFile上进⾏读取
从storeFile中读取到数据之后,不是直接把结果数据返回给客户端, ⽽是把数据先写⼊到BlockCache中,⽬的是为了加快后续的查询;然后在返回结果给客户端。

第 2 节 HBase写数据流程

HBase写操作

1)⾸先从zk找到meta表的region位置,然后读取meta表中的数据,meta表中存储了⽤户表的region信息
2)根据namespace、表名和rowkey信息。找到写⼊数据对应的region信息
3)找到这个region对应的regionServer,然后发送请求
4)把数据分别写到HLog(write ahead log)和memstore各⼀份
5)memstore达到阈值后把数据刷到磁盘,⽣成storeFile⽂件
6)删除HLog中的历史数据

第 3 节 HBase的flush(刷写)及compact(合并)机制

Flush机制

(1)当memstore的⼤⼩超过这个值的时候,会flush到磁盘,默认为128M

<property>
    <name>hbase.hregion.memstore.flush.size</name>
    <value>134217728</value>
</property>

(2)当memstore中的数据时间超过1⼩时,会flush到磁盘

<property>
    <name>hbase.regionserver.optionalcacheflushinterval</name>
    <value>3600000</value>
</property>

(3)HregionServer的全局memstore的⼤⼩,超过该⼤⼩会触发flush到磁盘的操作,默认是堆⼤⼩的40%

<property>
    <name>hbase.regionserver.global.memstore.size</name>
    <value>0.4</value>
</property>

(4)⼿动flush

flush tableName

阻塞机制

以上介绍的是Store中memstore数据刷写磁盘的标准,但是Hbase中是周期性的检查是否满⾜以上标准满⾜则进⾏刷写,但是如果在下次检查到来之前,数据疯狂写⼊Memstore中,会出现什么问题呢?

会触发阻塞机制,此时⽆法写⼊数据到Memstore,数据⽆法写⼊Hbase集群。

● memstore中数据达到512MB

计算公式:hbase.hregion.memstore.flush.size*hbase.hregion.memstore..block.multiplier
hbase.hregion.memstore.flush.size刷写的阀值,默认是 134217728,即128MB。
hbase.hregion.memstore.block.multiplier是⼀个倍数,默认是 4。

● RegionServer全部memstore达到规定值

hbase.regionserver.global.memstore.size.lower.limit是0.95,
hbase.regionserver.global.memstore.size是0.4,

堆内存总共是 16G,
触发刷写的阈值是:6.08GB 触发阻塞的阈值是:6.4GB

Compact合并机制

在hbase中主要存在两种类型的compac合并

● minor compact ⼩合并
  ○ 在将Store中多个HFile(StoreFile)合并为⼀个HFile

这个过程中,删除和更新的数据仅仅只是做了标记,并没有物理移除,这种合并的触发频率很⾼。

  ○ minor compact⽂件选择标准由以下⼏个参数共同决定:

<!--待合并文件数据必须大于等于下面这个值-->
<property>
    <name>hbase.hstore.compaction.min</name>
    <value>3</value>
</property>
<!--待合并文件数据必须小于等于下面这个值-->
<property>
    <name>hbase.hstore.compaction.max</name>
    <value>10</value>
</property>
<!--默认值为128m,表示文件大小, 小于该值的store file 一定会加?到minor compaction的store file
-->
<property>
  <name>hbase.hstore.compaction.min.size</name>
  <value>134217728</value>
</property>
<!--默认值为LONG.MAX_VALUE,表示文件大小, 大于该值的store file 一定会被minor compaction排除-->
<property>
  <name>hbase.hstore.compaction.max.size</name>
  <value>9223372036854775807</value>
</property>

   触发条件
    ♦ memstore flush
       在进⾏memstore flush前后都会进⾏判断是否触发compact
    ♦ 定期检查线程
       周期性检查是否需要进⾏compaction操作,由参数:hbase.server.thread.wakefrequency决定,默认值是10000 millseconds

● major compact ⼤合并

  ○ 合并Store中所有的HFile为⼀个HFile

      这个过程有删除标记的数据会被真正移除,同时超过单元格maxVersion的版本记录也会被删除。合并频率⽐较低,默认7天执⾏⼀次,并且性能消耗⾮常⼤,建议⽣产关闭(设置为0),在应⽤空闲时间⼿动触发。⼀般可以是⼿动控制进⾏合并,防⽌出现在业务⾼峰期。

    ♦ major compaction触发时间条件

<!--默认值为7天进行一次大合并,-->
<property>
    <name>hbase.hregion.majorcompaction</name>
    <value>604800000</value>
</property>

    ♦ ⼿动触发

##使⽤major_compact命令
major_compact tableName

第 4 节 Region 拆分机制

Region中存储的是⼤量的rowkey数据 ,当Region中的数据条数过多的时候,直接影响查询效率.当Region过⼤的时候.HBase会拆分Region , 这也是Hbase的⼀个优点 

4.1 拆分策略

HBase的Region Split策略⼀共有以下⼏种:

1)ConstantSizeRegionSplitPolicy

0.94版本前默认切分策略

当region⼤⼩⼤于某个阈值(hbase.hregion.max.filesize=10G)之后就会触发切分,⼀个region等分为2个region。

但是在⽣产线上这种切分策略却有相当⼤的弊端:切分策略对于⼤表和⼩表没有明显的区分。阈值(hbase.hregion.max.filesize)设置较⼤对⼤表⽐较友好,但是⼩表就有可能不会触发分裂,极端情况下可能就1个,这对业务来说并不是什么好事。如果设置较⼩则对⼩表友好,但⼀个⼤表就会在整个集群产⽣⼤量的region,这对于集群的管理、资源使⽤、failover来说都不是⼀件好事。

2)IncreasingToUpperBoundRegionSplitPolicy

0.94版本~2.0版本默认切分策略

切分策略稍微有点复杂,总体看和ConstantSizeRegionSplitPolicy思路相同,⼀个region⼤⼩⼤于设置阈值就会触发切分。但是这个阈值并不像ConstantSizeRegionSplitPolicy是⼀个固定的值,⽽是会在⼀定条件下不断调整,调整规则和region所属表在当前regionserver上的region个数有关系.

region split的计算公式是:
regioncount^3 * 128M * 2,当region达到该size的时候进⾏split
例如:
第⼀次split:1^3 * 256 = 256MB
第⼆次split:2^3 * 256 = 2048MB
第三次split:3^3 * 256 = 6912MB
第四次split:4^3 * 256 = 16384MB > 10GB,因此取较⼩的值10GB
后⾯每次split的size都是10GB了

3)SteppingSplitPolicy

2.0版本默认切分策略

这种切分策略的切分阈值⼜发⽣了变化,相⽐ IncreasingToUpperBoundRegionSplitPolicy 简单了⼀些,依然和待分裂region所属表在当前
regionserver上的region个数有关系,如果region个数等于1,

切分阈值为flush size * 2,否则为MaxRegionFileSize。

这种切分策略对于⼤集群中的⼤表、⼩表会⽐IncreasingToUpperBoundRegionSplitPolicy 更加友好,⼩表不会再产⽣⼤量的⼩region,⽽是适可⽽⽌。

4)KeyPrefixRegionSplitPolicy

根据rowKey的前缀对数据进⾏分组,这⾥是指定rowKey的前多少位作为前缀,⽐如rowKey都是16位的,指定前5位是前缀,那么前5位相同的rowKey在进⾏region split的时候会分到相同的region中。

5)DelimitedKeyPrefixRegionSplitPolicy

保证相同前缀的数据在同⼀个region中,例如rowKey的格式为:userid_eventtype_eventid,指定的delimiter为 _ ,则split的的时候会确保userid相同的数据在同⼀个region中。

6)DisabledRegionSplitPolicy

不启⽤⾃动拆分, 需要指定⼿动拆分

4.2 RegionSplitPolicy的应⽤

Region拆分策略可以全局统⼀配置,也可以为单独的表指定拆分策略。

1)通过hbase-site.xml全局统⼀配置(对hbase所有表⽣效)

<property>
  <name>hbase.regionserver.region.split.policy</name>
  <value>org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy</value>
</property>

2)通过Java API为单独的表指定Region拆分策略

HTableDescriptor tableDesc = new HTableDescriptor("test1");
tableDesc.setValue(HTableDescriptor.SPLIT_POLICY, IncreasingToUpperBoundRegionSplitPolicy.class.getName());
tableDesc.addFamily(new HColumnDescriptor(Bytes.toBytes("cf1")));
admin.createTable(tableDesc);

3)通过HBase Shell为单个表指定Region拆分策略

hbase> create 'test2', {METADATA => {'SPLIT_POLICY' =>
'org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy'}},{NAME => 'cf1

第 5 节 HBase表的预分区(region)

5.1 为何要预分区

当⼀个table刚被创建的时候,Hbase默认的分配⼀个region给table。也就是说这个时候,所有的读写请求都会访问到同⼀个regionServer的同⼀个region中,这个时候就达不到负载均衡的效果了,集群中的其他regionServer就可能会处于⽐较空闲的状态。解决这个问题可以⽤pre-splitting,在创建table的时候就配置好,⽣成多个region。

  • 增加数据读写效率
  • 负载均衡,防⽌数据倾斜
  • ⽅便集群容灾调度region

每⼀个region维护着startRow与endRowKey,如果加⼊的数据符合某个region维护的rowKey范围,则该数据交给这个region维

5.2 ⼿动指定预分区

create 'person','info1','info2',SPLITS => ['1000','2000','3000']

也可以把分区规则创建于⽂件中

vim split.txt

⽂件内容

aaa
bbb
ccc
ddd

执⾏

create 'student','info',SPLITS_FILE => '/root/hbase/split.txt'

第 6 节 Region 合并

6.1 Region合并说明

Region的合并不是为了性能,⽽是出于维护的⽬的。

6.2 如何进⾏Region合并

通过Merge类冷合并Region

  • 需要先关闭hbase集群

需求:需要把student表中的2个region数据进⾏合并:

  • student,,1593244870695.10c2df60e567e73523a633f20866b4b5.   
  • student,1000,1593244870695.0a4c3ff30a98f79ff6c1e4cc927b3d0d.

这⾥通过org.apache.hadoop.hbase.util.Merge类来实现,不需要进⼊hbase shell,直接执⾏(需要先关闭hbase集群):

hbase org.apache.hadoop.hbase.util.Merge student \
student,,1595256696737.fc3eff4765709e66a8524d3c3ab42d59. \
student,aaa,1595256696737.1d53d6c1ce0c1bed269b16b6514131d0.

通过online_merge热合并Region

不需要关闭hbase集群,在线进⾏合并

与冷合并不同的是,online_merge的传参是Region的hash值,⽽Region的hash值就是Region名称的最后那段在两个.之间的字符串部分。

需求:需要把lagou_s表中的2个region数据进⾏合并:
student,,1587392159085.9ca8689901008946793b8d5fa5898e06. \
student,aaa,1587392159085.601d5741608cedb677634f8f7257e000.

需要进⼊hbase shell:

merge_region 'c8bc666507d9e45523aebaffa88ffdd6','02a9dfdf6ff42ae9f0524a3d8f4c7777'

成功后观察界⾯

第三部分 HBase API应⽤和优化

第 1 节 HBase API客户端操作

创建Maven⼯程,添加依赖

<dependencies>
    <dependency>
        <groupId>org.apache.hbase</groupId>
        <artifactId>hbase-client</artifactId>
        <version>1.3.1</version>
    </dependency>
    
    <dependency>
        <groupId>junit</groupId>
        <artifactId>junit</artifactId>
        <version>4.12</version>
        <scope>test</scope>
    </dependency>
    
    <dependency>
        <groupId>org.testng</groupId>
        <artifactId>testng</artifactId>
        <version>6.14.3</version>
        <scope>test</scope>
    </dependency>
</dependencies>

初始化及释放资源方法

package com.lagou.hbase.client;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.*;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.util.Bytes;
import org.junit.After;
import org.junit.Before;

import java.io.IOException;

public class HbaseClientDemo {
    Configuration conf = null;
    Connection conn = null;

    @Before
    public void init() throws IOException {
        //获取一个配置文件对象
        conf = HBaseConfiguration.create();

        conf.set("hbase.zookeeper.quorum", "linux121,linux122");
        conf.set("hbase.zookeeper.property.clientPort", "2181");
        //通过conf获取到hbase集群的连接
        conn = ConnectionFactory.createConnection(conf);
    }

    //释放连接
    @After
    public void realse() {
        if (conn != null) {
            try {
                conn.close();
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    }
}

创建表:

    //创建一张hbase表
    @Test
    public void createTable() throws IOException {
        //获取HbaseAdmin对象用来创建表
        HBaseAdmin admin = (HBaseAdmin) conn.getAdmin();
        //创建Htabledesc描述器,表描述器
        final HTableDescriptor worker = new HTableDescriptor(TableName.valueOf("worker"));
        //指定列族
        worker.addFamily(new HColumnDescriptor("info"));
        admin.createTable(worker);
        System.out.println("worker表创建成功!!");
    }

插⼊数据

    //插入一条数据
    @Test
    public void putData() throws IOException {
        //需要获取一个table对象
        final Table worker = conn.getTable(TableName.valueOf("worker"));

        //准备put对象
        final Put put = new Put(Bytes.toBytes("110"));   //指定rowkey

        put.addColumn(Bytes.toBytes("info"), Bytes.toBytes("addr"), Bytes.toBytes("beijing"));
        //插入数据,参数类型是put
        worker.put(put);
        //准备list<puts>,可以执行批量插入
        //关闭table对象
        worker.close();
        System.out.println("插入数据到worker表成功!!");
    }

删除数据:

    //删除一条数据
    @Test
    public void deleteData() throws IOException {
        //需要获取一个table对象
        final Table worker = conn.getTable(TableName.valueOf("worker"));

        //准备delete对象, 传入rowkey
        final Delete delete = new Delete(Bytes.toBytes("110"));
        //执行删除
        worker.delete(delete);
        //关闭table对象
        worker.close();
        System.out.println("删除数据成功!!");
    }

查询某个列族数据

    //查询数据
    @Test
    public void getData() throws IOException {
        //准备table对象
        final Table worker = conn.getTable(TableName.valueOf("worker"));
        //准备get对象, 传入rowkey
        final Get get = new Get(Bytes.toBytes("110"));
        //指定查询某个列族或者列
        get.addFamily(Bytes.toBytes("info"));
        //执行查询
        final Result result = worker.get(get);
        //获取到result中所有cell对象
        final Cell[] cells = result.rawCells();
        //遍历打印
        for (Cell cell : cells) {
            final String rowkey = Bytes.toString(CellUtil.cloneRow(cell));
            final String f = Bytes.toString(CellUtil.cloneFamily(cell));
            final String column = Bytes.toString(CellUtil.cloneQualifier(cell));
            final String value = Bytes.toString(CellUtil.cloneValue(cell));

            System.out.println("rowkey-->" + rowkey + "--;cf-->" + f + "---;column--->" + column + "--;value-->" + value);
        }
        worker.close();
    }

通过Scan全表扫描

    //全表扫描
    @Test
    public void scanData() throws IOException {
        //准备table对象
        final Table worker = conn.getTable(TableName.valueOf("worker"));
        //准备scan对象
        final Scan scan = new Scan();

        //执行扫描
        final ResultScanner resultScanner = worker.getScanner(scan);
        for (Result result : resultScanner) {
            //获取到result中所有cell对象
            final Cell[] cells = result.rawCells();
            //遍历打印
            for (Cell cell : cells) {
                final String rowkey = Bytes.toString(CellUtil.cloneRow(cell));
                final String f = Bytes.toString(CellUtil.cloneFamily(cell));
                final String column = Bytes.toString(CellUtil.cloneQualifier(cell));
                final String value = Bytes.toString(CellUtil.cloneValue(cell));
                System.out.println("rowkey-->" + rowkey + "--;cf-->" + f + ";column--->" + column + "--;value-->" + value);
            }
        }

        worker.close();
    }

通过startRowKey和endRowKey进⾏扫描

    //指定scan 开始rowkey和结束rowkey,这种查询方式建议使用,指定开始和结束rowkey区间避免全表扫描
    @Test
    public void scanStartEndData() throws IOException {
        //准备table对象
        final Table worker = conn.getTable(TableName.valueOf("worker"));
        //准备scan对象
        final Scan scan = new Scan();

        //指定查询的rowkey区间,rowkey在hbase中是以字典序排序
        scan.setStartRow(Bytes.toBytes("001"));
        scan.setStopRow(Bytes.toBytes("004"));

        //执行扫描
        final ResultScanner resultScanner = worker.getScanner(scan);
        for (Result result : resultScanner) {
            //获取到result中所有cell对象
            final Cell[] cells = result.rawCells();
            //遍历打印
            for (Cell cell : cells) {
                final String rowkey = Bytes.toString(CellUtil.cloneRow(cell));
                final String f = Bytes.toString(CellUtil.cloneFamily(cell));
                final String column = Bytes.toString(CellUtil.cloneQualifier(cell));
                final String value = Bytes.toString(CellUtil.cloneValue(cell));
                System.out.println("rowkey-->" + rowkey + "--;cf-->" + f + ";column--->" + column + "--;value-->" + value);
            }
        }
        worker.close();
    }
}

第 2 节 Hbase 协处理器

2.1 协处理器概述

官⽅地址

http://hbase.apache.org/book.html#cp

访问HBase的⽅式是使⽤scan或get获取数据,在获取到的数据上进⾏业务运算。但是在数据量⾮常⼤的时候,⽐如⼀个有上亿⾏及⼗万个列的数据集,再按常⽤的⽅式移动获取数据就会遇到性能问题。客户端也需要有强⼤的计算能⼒以及⾜够的内存来处理这么多的数据。

此时就可以考虑使⽤Coprocessor(协处理器)。将业务运算代码封装到Coprocessor中并在RegionServer上运⾏,即在数据实际存储位置执⾏,最后将运算结果返回到客户端。利⽤协处理器,⽤户可以编写运⾏在 HBase Server 端的代码。

Hbase Coprocessor类似以下概念

触发器和存储过程:⼀个Observer Coprocessor有些类似于关系型数据库中的触发器,通过它我们可以在⼀些事件(如Get或是Scan)发⽣前后执⾏特定的代码。
Endpoint Coprocessor则类似于关系型数据库中的存储过程,因为它允许我们在RegionServer上直接对它存储的数据进⾏运算,⽽⾮是在客户端完成运算。

MapReduce:MapReduce的原则就是将运算移动到数据所处的节点。Coprocessor也是按照相同的原则去⼯作的。

AOP:如果熟悉AOP的概念的话,可以将Coprocessor的执⾏过程视为在传递请求的过程中对请求进⾏了拦截,并执⾏了⼀些⾃定义代码。

2.2 协处理器类型

Observer

协处理器与触发器(trigger)类似:在⼀些特定事件发⽣时回调函数(也被称作钩⼦函数,hook)被执⾏。这些事件包括⼀些⽤户产⽣的事件,也包括服务器端内部⾃动产⽣的事件。

协处理器框架提供的接⼝如下

  • RegionObserver:⽤户可以⽤这种的处理器处理数据修改事件,它们与表的region联系紧密。
  • MasterObserver:可以被⽤作管理或DDL类型的操作,这些是集群级事件。
  • WALObserver:提供控制WAL的钩⼦函数

Endpoint

这类协处理器类似传统数据库中的存储过程,客户端可以调⽤这些 Endpoint 协处理器在Regionserver中执⾏⼀段代码,并将 RegionServer 端执⾏结果返回给客户端进⼀步处理。

Endpoint常⻅⽤途

聚合操作

假设需要找出⼀张表中的最⼤数据,即 max 聚合操作,普通做法就是必须进⾏全表扫描,然后Client代码内遍历扫描结果,并执⾏求最⼤值的操作。这种⽅式存在的弊端是⽆法利⽤底层集群的并发运算能⼒,把所有计算都集中到 Client 端执⾏,效率低下。

使⽤Endpoint Coprocessor,⽤户可以将求最⼤值的代码部署到 HBase RegionServer 端,HBase 会利⽤集群中多个节点的优势来并发执⾏求最⼤值的操作。也就是在每个 Region 范围内执⾏求最⼤值的代码,将每个 Region 的最⼤值在 Region Server 端计算出,仅仅将该 max 值返回给Client。在Client进⼀步将多个 Region 的最⼤值汇总进⼀步找到全局的最⼤值。

Endpoint Coprocessor的应⽤后续可以借助于Phoenix⾮常容易就能实现。针对Hbase数据集进⾏聚合运算直接使⽤SQL语句就能搞定。

2.3 协处理器Observer 案例

需求
通过协处理器Observer实现Hbase当中t1表插⼊数据,指定的另⼀张表t2也需要插⼊相对应的数据。

create 't1','info'

create 't2','info'

实现思路

通过Observer协处理器捕捉到t1插⼊数据时,将数据复制⼀份并保存到t2表中

开发步骤

1. 添加依赖

 <!-- https://mvnrepository.com/artifact/org.apache.hbase/hbase-server -->
 <dependency>
     <groupId>org.apache.hbase</groupId>
     <artifactId>hbase-server</artifactId>
     <version>1.3.1</version>
 </dependency>

编写Observer协处理器

package com.lagou.hbase.processor;

import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Durability;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.coprocessor.BaseRegionObserver;
import org.apache.hadoop.hbase.coprocessor.ObserverContext;
import org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment;
import org.apache.hadoop.hbase.regionserver.wal.WALEdit;
import org.apache.hadoop.hbase.util.Bytes;

import java.io.IOException;

// 继承RegionObserver的实现类
// 重写prePut方法,监听到向t1表插入数据时,执行向t2表插入数据的代码
public class MyProcessor extends BaseRegionObserver {

    // 下面的方法会在执行put之前执行
    @Override
    public void prePut(ObserverContext<RegionCoprocessorEnvironment> e, Put put, WALEdit edit, Durability durability) throws IOException {

        //把自己需要执行的逻辑定义在此处,向t2表插入数据,数据具体是什么内容与Put一样

        //获取t2表table对象
        // 下面本身返回的是一个list集合, 因为表中数据根据时间戳有不同版本
        // 使用get(0)拿到的就是最新版本的数据值
        final HTableWrapper t2 = (HTableWrapper) e.getEnvironment().getTable(TableName.valueOf("t2"));
        //解析t1表的插入对象put
        final Cell cell = put.get(Bytes.toBytes("info"), Bytes.toBytes("name")).get(0);
        //table对象.put, 传入的rowkey是解析传入的put拿到的
        final Put put1 = new Put(put.getRow());
        put1.add(cell); // 把数据单元放入put1对象中
        t2.put(put1); //执行向t2表插入数据
        t2.close();
    }
}

2. 打成Jar包,上传HDFS

cd /opt/lagou/softwares
mv original-hbaseStudy-1.0-SNAPSHOT.jar processor.jar
hdfs dfs -mkdir -p /processor
hdfs dfs -put processor.jar /processor

3. 挂载协处理器

hbase(main):056:0> describe 't1'
hbase(main):055:0> alter 't1',METHOD => 'table_att','Coprocessor'=>'hdfs://linux121:9000/processor/processor.jar|com.lagou.hbase.processor.MyProcessor|1001|'

#再次查看't1'表,
hbase(main):043:0> describe 't1'

4.验证协处理器
向t1表中插⼊数据(shell⽅式验证)

put 't1','rk1','info:name','lisi'

5.卸载协处理器

disable 't1'
alter 't1',METHOD=>'table_att_unset',NAME=>'coprocessor$1'
enable 't1'

第 4 节 HBase表的RowKey设计

RowKey的基本介绍

ASCII码字典顺序。
012,0,123,234,3.
0,3,012,123,234
0,012,123,234,3
字典序的排序规则。

先⽐较第⼀个字节,如果相同,然后⽐对第⼆个字节,以此类推,
如果到第X个字节,其中⼀个已经超出了rowkey的⻓度,短rowkey排在前⾯。

RowKey⻓度原则

rowkey是⼀个⼆进制码流,可以是任意字符串,最⼤⻓度64kb,实际应⽤中⼀般为10-100bytes,以byte[]形式保存,⼀般设计成定⻓。
建议越短越好,不要超过16个字节

设计过⻓会降低memstore内存的利⽤率和HFile存储数据的效率。

 RowKey散列原则

建议将rowkey的⾼位作为散列字段,这样将提⾼数据均衡分布在每个RegionServer,以实现负载均衡的⼏率。

RowKey唯⼀原则

必须在设计上保证其唯⼀性, 访问hbase table中的⾏:有3种⽅式:

  • 单个rowkey
  • rowkey 的range
  • 全表扫描(⼀定要避免全表扫描)

实现⽅式:
1)org.apache.hadoop.hbase.client.Get
2)scan⽅法: org.apache.hadoop.hbase.client.Scan

scan使⽤的时候注意:

  • setStartRow,setEndRow 限定范围, 范围越⼩,性能越⾼。

 RowKey排序原则

HBase的Rowkey是按照ASCII有序设计的,我们在设计Rowkey时要充分利⽤这点.

第 5 节 HBase表的热点

5.1 什么是热点

检索habse的记录⾸先要通过row key来定位数据⾏。当⼤量的client访问hbase集群的⼀个或少数⼏个节点,造成少数region server的读/写请求过多、负载过⼤,⽽其他region server负载却很⼩,就造成了“热点”现象

5.2 热点的解决⽅案

  • 预分区

 预分区的⽬的让表的数据可以均衡的分散在集群中,⽽不是默认只有⼀个region分布在集群的⼀个节点

  • 加盐

 这⾥所说的加盐不是密码学中的加盐,⽽是在rowkey的前⾯增加随机数,具体就是给rowkey分配⼀个随机前缀以使得它和之前的rowkey的开头不同。

4个region,[,a),[a,b),[b,c),[c,]
原始数据:abc1,abc2,abc3.
加盐后的rowkey:a-abc1,b-abc2,c-abc3
abc1,a
abc2,b

  • 哈希

 哈希会使同⼀⾏永远⽤⼀个前缀加盐。哈希也可以使负载分散到整个集群,但是读却是可以预测的。使⽤确定的哈希可以让客户端重构完整的rowkey,可以使⽤get操作准确获取某⼀个行数据

原始数据: abc1,abc2,abc3

哈希:
md5(abc1)=92231b....., 9223-abc1
md5(abc2) =32a131122...., 32a1-abc2
md5(abc3) = 452b1...., 452b-abc3.

  • 反转

 反转固定⻓度或者数字格式的rowkey。这样可以使得rowkey中经常改变的部分(最没有意义的部分)放在前⾯。这样可以有效的随机rowkey,但是牺牲了rowkey的有序性。
  15X,13X,

第 6 节 HBase的⼆级索引

HBase表按照rowkey查询性能是最⾼的。rowkey就相当于hbase表的⼀级索引!!

为了HBase的数据查询更⾼效、适应更多的场景,诸如使⽤⾮rowkey字段检索也能做到秒级响应,或者⽀持各个字段进⾏模糊查询和多字段组合查询等, 因此需要在HBase上⾯构建⼆级索引, 以满⾜现实中更复杂多样的业务需求。

hbase的⼆级索引其本质就是建⽴hbase表中列与⾏键之间的映射关系。

常⻅的⼆级索引我们⼀般可以借助各种其他的⽅式来实现,例如Phoenix或者solr或者ES等

第 7 节 布隆过滤器在hbase的应⽤

布隆过滤器应⽤

之前再讲hbase的数据存储原理的时候,我们知道hbase的读操作需要访问⼤量的⽂件,⼤部分的实现通过布隆过滤器来避免⼤量的读⽂件操作。

布隆过滤器的原理

通常判断某个元素是否存在⽤的可以选择hashmap。但是 HashMap 的实现也有缺点,例如存储容量占⽐⾼,考虑到负载因⼦的存在,通常空间是不能被⽤满的,⽽⼀旦你的值很多例如上亿的时候,那 HashMap 占据的内存⼤⼩就变得很可观了。

Bloom Filter是⼀种空间效率很⾼的随机数据结构,它利⽤位数组很简洁地表示⼀个集合,并能判断⼀个元素是否属于这个集合。

hbase 中布隆过滤器来过滤指定的rowkey是否在⽬标⽂件,避免扫描多个⽂件。使⽤布隆过滤器来判断。

布隆过滤器返回true,在结果不⼀定争取,、如果返回false则说明确实不存在。

原理示意图

Bloom Filter案例

布隆过滤器,已经不需要⾃⼰实现,Google已经提供了⾮常成熟的实现。

<dependency>
    <groupId>com.google.guava</groupId>
    <artifactId>guava</artifactId>
    <version>27.0.1-jre</version>
</dependency>

使⽤

guava 的布隆过滤器,封装的⾮常好,使⽤起来⾮常简洁⽅便。

例: 预估数据量1w,错误率需要减⼩到万分之⼀。使⽤如下代码进⾏创建。

package com.lagou.hbase.bloom;

import com.google.common.hash.BloomFilter;
import com.google.common.hash.Funnels;

import java.nio.charset.Charset;

public class BloomFilterDemo {

    public static void main(String[] args) {
        // 1.创建符合条件的布隆过滤器
        // 预期数据量10000,错误率0.0001
        BloomFilter<CharSequence> bloomFilter =
                BloomFilter.create(Funnels.stringFunnel(Charset.forName("utf-8")), 10000, 0.0001);
        // 2.将一部分数据添加进去
        for (int i = 0; i < 5000; i++) {
            bloomFilter.put("" + i);
        }
        System.out.println("数据写入完毕");
        // 3.测试结果
        for (int i = 0; i < 10000; i++) {
            if (bloomFilter.mightContain("" + i)) {
                System.out.println(i + "存在");
            } else {
                System.out.println(i + "不存在");
            }
        }
    }
}

猜你喜欢

转载自blog.csdn.net/chengh1993/article/details/112199274