数据仓库之 ETL

ETL,是英文 Extract-Transform-Load 的缩写,用来描述将数据从来源端经过抽取(extract)、交互转换(transform)、加载(load)至目的端的过程。ETL一词较常用在数据仓库,但其对象并不限于数据仓库。

ETL是构建数据仓库的重要一环,用户从数据源抽取出所需的数据,经过数据清洗,最终按照预先定义好的数据仓库模型,将数据加载到数据仓库中去。


大多数据仓库的数据架构可以概括为:

数据源–>ODS(操作型数据存储)–>DW–>DM(data mart)

ETL贯穿其各个环节。

 

​一、数据抽取:

可以理解为是把源数据的数据抽取到ODS或者DW中。

1. 源数据类型:

关系型数据库,如Oracle,Mysql,Sqlserver等;

文本文件,如用户浏览网站产生的日志文件,业务系统以文件形式提供的数据等;

其他外部数据,如手工录入的数据等;

2. 抽取的频率:

大多是每天抽取一次,​也可以根据业务需求每小时甚至每分钟抽取,当然得考虑源数据库系统能否承受;

3. 抽取策略:

个人感觉这是数据抽取中最重要的部分,可分为全量抽取和增量抽取。

全量抽取适用于那些数据量比较小,并且不容易判断其数据发生改变的诸如关系表,维度表,配置表等;

增量抽取,一般是由于数据量大,不可能采用全量抽取,或者为了节省抽取时间而采用的抽取策略;

如何判断增量,这是增量抽取中最难的部分,一般包括以下几种情况:

a) 通过时间标识字段抽取增量;源数据表中有明确的可以标识当天数据的字段的流水表,

如createtime,updatetime等;

b) 根据上次抽取结束时候记录的自增长ID来抽取增量;无createtime,但有自增长类型字段的流水表,

如自增长的ID,抽取完之后记录下最大的ID,

下次抽取可根据上次记录的ID来抽取;

c)  通过分析数据库日志获取增量数据,无时间标识字段,无自增长ID的关系型数据库中的表;

d)  通过与前一天数据的Hash比较,比较出发生变化的数据,这种策略比较复杂,在这里描述一下,

比如一张会员表,它的主键是memberID,而会员的状态是有可能每天都更新的,我们在第一次抽取之后,生成一张备用表A,包含两个字段,第一个是memberID, 第二个是除了memberID之外其他所有字段拼接起来,再做个Hash生成的字段,在下一次抽取的时候,将源表同样的处理,生成表B,将B和A左关联,Hash字段不相等的为发生变化的记录,另外还有一部分新增的记录,根据这两部分记录的memberID去源表中抽取对应的记录;

e) 由源系统主动推送增量数据;例如订单表,交易表,有些业务系统在设计的时候,当一个订单状态发生变化的时候,是去源表中做update,而我们在数据仓库中需要把一个订单的所有状态都记录下来,这时候就需要在源系统上做文章,数据库​触发器一般不可取。我能想到的方法是在业务系统上做些变动,当订单状态发生变化时候,记一张流水表,可以是写进数据库,也可以是记录日志文件。当然肯定还有其他抽取策略,至于采取哪种策略,需要考虑源数据系统情况,抽取过来的数据在数据仓库中的存储和处理逻辑,抽取的时间窗口等等因素。

 

二、数据清洗:

顾名思义​,就是把不需要的,和不符合规范的数据进行处理。数据清洗最好放在抽取的环节进行这样可以节约后续的计算和存储成本;当源数据为数据库时候,其他抽取数据的SQL中就可以进行很多数据清洗的工作了。

​数据清洗主要包括以下几个方面:

1. 空值处理;根据业务需要,可以将空值替换为特定的值或者直接过滤掉;

2. 验证数据正确性;主要是把不符合​业务含义的数据做一处理,比如,把一个表示数量的字段中的字符串替换为0,把一个日期字段的非日期字符串过滤掉等等;

3. 规范数据格式;比如,把所有的日期都格式化成YYYY-MM-DD的格式等;

4. ​数据转码;把一个源数据中用编码表示的字段,通过关联编码表,转换成代表其真实意义的值等等;

5. 数据标准,统一;比如在源数据中表示男女的方式有很多种,在抽取的时候,直接根据模型中定义的值做转化,统一表示男女;

6. 其他业务规则定义的数据清洗。

 

三、数据转换和加载:

数据转换和加载不仅仅是在源数据–>ODS这一步,ODS–>DW, DW–>DM包含更为重要和复杂的ETL过程。

1. 什么是ODS?

ODS(Operational Data Store)是数据仓库体系结构中的一个可选部分,ODS具备数据仓库的部分特征和OLTP系统的部分特征,它是“面向主题的、集成的、当前或接近当前的、 不断变化的”数据。​—摘自百度百科其实大多时候,ODS只是充当了一个数据临时存储,数据缓冲的角色。一般来说,数据由源数据加载到ODS之后,会保留一段时间,当后面的数据处理逻辑有问题,需要重新计算的时候,可以直接从ODS这一步获取,而不用再从源数据再抽取一次,减少对源系统的压力。另外,ODS还会直接给DM或者前端报表提供数据,比如一些维表或者不需要经过计算和处理的数据;还有,ODS会完成一些其他事情,比如,存储一些明细数据以备不时之需等等;

2. 数据转换(刷新):

数据转换,更多的人把它叫做数据刷新,就是用ODS中的增量或者全量数据来刷新DW中的表。

DW中的表基本都是按照事先设计好的模型创建的,如事实表,维度表,汇总表等,

每天都需要把新的数据更新到这些表中。

更新这些表的过程(程序)都是刚开始的时候开发好的,每天只需要传一些参数,如日期,来运行这些程序即可。

3. 数据加载:

       个人认为,每insert数据到一张表,都可以称为数据加载,至于是delete+insert、truncate+insert、

还是merge,这个是由业务规则决定的,这些操作也都是嵌入到数据抽取、转换的程序中的。

 

四、ETL工具:

在传统行业的数据仓库项目中,大多会采用一些现成的ETL工具,如Informatica、Datastage、微软SSIS等。

这三种工具我都使用过,优点有:图形界面,开发简单,数据流向清晰;缺点:局限性,不够灵活,

处理大数据量比较吃力,查错困难,昂贵的费用;

选择ETL工具需要充分考虑源系统和数据仓库的环境,当然还有成本,如果源数据系统和数据仓库都采用

ORACLE,那么我觉得所有的ETL,都可以用存储过程来完成了。

在大一点的互联网公司,由于数据量大,需求特殊,ETL工具大多为自己开发,

或者在开源工具上再进行一些二次开发,在实际工作中,

一个存储过程,一个shell/perl脚本,一个java程序等等,都可以作为ETL工具。

猜你喜欢

转载自blog.csdn.net/qq_41797451/article/details/80334377
今日推荐