主流的ETL工具

ETL是数据仓库中的非常重要的一环,是承前启后的必要的一步。ETL负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库中,成为联机分析处理、数据挖掘的基础。

ETL是什么

ETL,是英文 Extract-Transform-Load 的缩写,用来描述将数据从来源端经过抽取(extract)、转换(transform)、加载(load)至目的端的过程。通俗的说法就是从数据源抽取数据出来,进行清洗加工转换,然后加载到定义好的数据仓库模型中去。目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据。

为什么要用ETL工具
  • 当数据来自不同的物理主机,这时候如使用SQL语句去处理的话,就显得比较吃力且开销也更大。
  • 数据来源可以是各种不同的数据库或者文件,这时候需要先把他们整理成统一的格式后才可以进行数据的处理,这一过程用代码实现显然有些麻烦。
  • 在数据库中我们当然可以使用存储过程去处理数据,但是处理海量数据的时候存储过程显然比较吃力,而且会占用较多数据库的资源,这可能会导致数据资源不足,进而影响数据库的性能。

而ETL工具可以很好的解决以上问题,它的优点:

  • 支持多种数据源的连接。
  • 图形化的界面操作十分方便。
  • 处理海量数据速度快、流程更清晰。

常用的ETL工具

  • Datastage(使用难度⭐⭐⭐⭐):IBM公司的商业软件,最专业的ETL工具,价格不菲,适合大规模的ETL应用。
  • Informatica(使用难度⭐⭐):商业软件,相当专业的ETL工具,比Datastage便宜一点,适合大规模的ETL应用。
  • Kettle(使用难度⭐⭐):最著名的开源软件,用纯Java编写的ETL工具,免费,可跨平台,扩展性好。
差异介绍
  • 操作:Informatica有四个开发管理组件,开发的时候我们需要打开其中三个进行开发,Informatica没有ctrl+z的功能,如果对job作了改变之后,想要撤销,返回到改变前是不可能的。相比Kettle跟Datastage在测试调试的时候不太方便。Datastage全部的操作在同一个界面中,不用切换界面,能够看到数据的来源,整个job的情况,在找bug的时候会比Informatica方便。Kettle介于两者之间。
  • 部署:Kettle只需要JVM环境,Informatica需要服务器和客户端安装,而Datastage的部署难度大,比较耗费时间。
  • 处理速度:大数据量下Informatica 与Datastage的处理速度是比较快的,比较稳定。Kettle的处理速度相比稍慢。
  • 售后服务:Informatica与Datastage商业软件的售后服务上会比免费的开源软件好,有很好的商业化的技术支持,而Kettle则没有。
  • 扩展性:Kettle的扩展性无疑是最好,因为是开源代码,可以自己开发拓展它的功能,而Informatica和Datastage由于是商业软件,基本上没有。
  • Job的监控:在数据的监控上,Datastage的实时监控做的更加好,可以直观看到数据抽取的情况,运行到哪一个控件上。这对于调优来说,可以更快的定位到处理速度太慢的控件并进行处理,而informatica也有相应的功能,但是并不直观,需要通过两个界面的对比才可以定位到处理速度缓慢的控件。有时候还需要通过一些方法去查找。
  • 网上的技术文档:Datastage跟Informatica在遇到问题去网上找到解决方法的概率比较低,kettle则比较多。
  • 项目应用:
    多张表同步、重复的操作:在项目中,很多时候我们都需要同步生产库的表到数据仓库中。一百多张表同步、重复的操作,对开发人员来说是细心和耐心的考验。在这种情况下,开发人员最喜欢的工具无疑是kettle,多个表的同步都可以用同一个程序运行,不必每一张表的同步都建一个程序,而informatica虽然有提供工具去批量设计,但还是需要生成多个程序进行一一配置,而datastage在这方面就显得比较笨拙。
    增量表:在做增量表的时候,每次运行后都需要把将最新的一条数据操作时间存到数据库中,下次运行我们就取大于这个时间的数据。Kettle有控件可以直接读取数据库中的这个时间置为变量;对于没有类似功能控件的informatica,我们的做法是先读取的数据库中的这个时间存到文件,然后主程序运行的时候指定这个文件为参数文件,也可以得到同样的效果。
    在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/kejiayuan0806/article/details/108130446
今日推荐