大数据仓库-增量更新

 

2015-12-03  朱洁  hadoop技术学习

现在是国内凌晨3点,为了抵挡睡意,还是写写技术博客。今天和大家讨论下大数据仓库中的更新技术。

当前很多大数据技术,如HDFS最早设定的是数据不更新,只增量叠加。传统数据仓库(Greenplum,treadata,oracle RAC)通常碰到两个问题:

1、更新的throughput不高。主要影响原因有两点,锁的原因,还有更新通常是随机IO,很难充分利用硬盘高吞吐的优势。

2、更新影响查询。更新把IO占住,查询的体验急剧下降。

为了解决这个问题,GoogleMesa系统设计了一个MVCC的数据模型,通过增量更新和合并技术。将离散的更新IO转变成批量IO,平衡了查询和更新的冲突,提高了更新的吞吐量。

 

Mesa设计了一个多版本管理技术来解决更新的问题:

1、使用二维表来管理数据,每个表要制定schma,类似传统数据库。

2、每个字段用KeyValue来管理。Schema就是是key的集合,指向value的集合。

3、每个字段指定一个聚合函数F。(最常见的是SUM

4、数据更新进来的时候,按照MVCC增量更新,并给增量更新指定一个版本号N,和谓词P

 

5、查询进来的时候,自动识别聚合函数,把所有版本的更新按照聚合函数自动计算出来。

 

 

6、多版本如果永远不合并,存储的代价会非常大,而且因为每次查询需要遍历所有版本号,所以版本过多会影响查询,因此定期的合并是自然而然的。

7、Mesa采用两段更新的策略。更新数据按版本号实时写入,每十个版本自动合并,每天又全量合并一遍,合并成一个基础版本。

好了,今天主要就介绍Mesa的数据模型。Mesa的论文中举了一个例子更方便理解,大家去看看吧。

 

 
 

微信扫一扫
关注该公众号

猜你喜欢

转载自jiezhu2007.iteye.com/blog/2265152
今日推荐