HBase学习--------Hbase简介,数据模型,架构

1.简介

Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩、实时读写的分布式数据库

利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为其分布式协同服务

主要用来存储非结构化和半结构化的松散数据(列存 NoSQL 数据库)

2.数据模型

在这里插入图片描述1.ROW KEY
决定一行数据
按照字典顺序排序的。
Row key只能存储64k的字节数据(一般存储10-100个字节)

2.Column Family列族 & qualifier列

HBase表中的每个列都归属于某个列族,列族必须作为表模式(schema)定义的一部分预先给出。如 create ‘test’, ‘course’;

列名以列族作为前缀,每个“列族”都可以有多个列成员(column);如course:math, course:english, 新的列族成员(列)可以随后按需、动态加入;

权限控制、存储以及调优都是在列族层面进行的;

HBase把同一列族里面的数据存储在同一目录下,由几个文件保存

3.Timestamp时间戳

在HBase每个cell存储单元对同一份数据有多个版本,根据唯一的时间戳来区分每个版本之间的差异,不同版本的数据按照时间倒序排序,最新的数据版本排在最前面

时间戳的类型是 64位整型。

时间戳可以由HBase(在数据写入时自动)赋值,此时时间戳是精确到毫秒的当前系统时间。

时间戳也可以由客户显式赋值,如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。

4.Cell单元格
由行和列的坐标交叉决定;
单元格是有版本的;
单元格的内容是未解析的字节数组;
由{row key, column( = +), version} 唯一确定的单元
cell中的数据是没有类型的,全部是字节数组形式存贮。

5.HLog(WAL log)
预写日志
HLog文件就是一个普通的Hadoop Sequence File,Sequence File 的Key是HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和region名字外,同时还包括 sequence number和timestamp,timestamp是” 写入时间”,sequence number的起始值为0,或者是最近一次存入文件系统中sequence number。
HLog SequeceFile的Value是HBase的KeyValue对象,即对应HFile中的KeyValue

3.架构

官网架构图:
在这里插入图片描述注意:图中的Hlog不属于region,而是存在regionServer中。
HBase写流程:
1.Client客户端访问zookeeper获取需要向哪一台HregionServer写数据,得到这个regionServer的入口地址。
2.client客户端根据获取的地址,找到对应的regionServer和需要写入的region(表)以及store(列族),把写操作和数据加载到内存,会有一个专门的线程logasync来检测内存里是否有数据,如果有数据就会把数据追加到Hlog里面。每个regionServer里面都有一个Hlog来记录本regionServer里所有的region(表)的数据操作。由于不断的对Hlog追加数据,导致Hlog越来越大。为了防止Hlog过大,还会有一个线程logroller来进行每60分钟创建一个新的Hlog文件。如果在预写日志过程中出现故障,数据会丢失。
3.预写日志完成后,会把需要写入的数据加载到对应的region(表)的store(列族)的metastore里面,默认metastore为64M内存,数据进入metastore后会根据row key进行字典序排序,当metastore里的数据达到64M时,这个metastore会加入到一个溢写队列里面,等待溢写成一个storeFile。然后会新建一个新的metastore来接受数据。
4.metastore满了都会溢写成一个小文件,为了防止产生过多的小文件,会进行文件的合并操作。合并的方式分为minor、major compaction两种方式。minor方式主要会把3-10文件合并成一个文件。major compaction会把所有文件合并成一个文件,效率较低。在合并的过程会对多个内部有序的文件进行排序,使整体按照字典序进行排序。除此之外,合并过程还会清理一些已经失效的数据(Hbase删除数据时,不会直接删除,而是把那条数据标记为失效)。
5.最后会把文件存到HDFS里面。

Hbase读流程
1.client客户端访问zookeeper,获取存放所要读取数据的regionServer地址入口。
2.根据地址找到对应的regionServer,然后找到存放数据的region(表)和数据所在的store(列族)。
3.首先会查找store的metastore里是否存在所要读取的数据。因为有时有些数据存在么她store里没有溢写到文件。如果meta store里面没有找到,就会查找blockcache。如果blockcace里也没有,就会从storeFile里面查找。会把查找到的数据写入blockcache里面。blockcache采用先进先出的管理策略。

各服务的功能:
1.Client
包含访问HBase的接口并维护cache来加快对HBase的访问

2.Zookeeper
保证任何时候,集群中只有一个活跃master
存贮所有Region的寻址入口。
实时监控Region server的上线和下线信息。并实时通知Master
存储HBase的schema和table元数据,

3.Master
为Region server分配region
负责Region server的负载均衡
发现失效的Region server并重新分配其上的region
管理用户对table的增删改操作

4.RegionServer
Region server维护region,处理对这些region的IO请求
Region server负责切分在运行过程中变得过大的region

5.Region
HBase自动把表水平划分成多个区域(region),每个region会保存一个表里面某段连续的数据

每个表一开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阀值的时候,region就会等分会两个新的region(裂变)

当table中的行不断增多,就会有越来越多的region。这样一张完整的表被保存在多个Regionserver 上

6.Memstore 与 storefile
一个region由多个store组成,一个store对应一个CF(列族)
store包括位于内存中的memstore和位于磁盘的storefile写操作先写入memstore,当memstore中的数据达到某个阈值,hregionserver会启动flashcache进程写入storefile,每次写入形成单独的一个storefile
当storefile文件的数量增长到一定阈值后,系统会进行合并(minor、major compaction),在合并过程中会进行版本合并和删除工作(majar),形成更大的storefile
当一个region所有storefile的大小和数量超过一定阈值后,会把当前的region分割为两个,并由hmaster分配到相应的regionserver服务器,实现负载均衡
客户端检索数据,先在memstore找,找不到再找storefile

发布了19 篇原创文章 · 获赞 1 · 访问量 316

猜你喜欢

转载自blog.csdn.net/qq_43719634/article/details/104805499