Alibaba DataX 源码编译

Alibaba DataX 源码编译

标签(空格分隔): ETL


DataX简介

设计理念

为了解决异构数据源同步问题,DataX将复杂的网状的同步链路变成了星型数据链路,DataX作为中间传输载体负责连接各种数据源。当需要接入一个新的数据源的时候,只需要将此数据源对接到DataX,便能跟已有的数据源做到无缝数据同步。
image.png-48.3kB

当前使用现状

DataX在阿里巴巴集团内被广泛使用,承担了所有大数据的离线同步业务,并已持续稳定运行了6年之久。目前每天完成同步8w多道作业,每日传输数据量超过300TB。此前已经开源DataX1.0版本,此次介绍为阿里巴巴开源全新版本DataX3.0,有了更多更强大的功能和更好的使用体验。

源码及文档: https://github.com/alibaba/DataX

DataX3.0框架设计

image.png-25.1kB

DataX本身作为离线数据同步框架,采用Framework + plugin架构构建。将数据源读取和写入抽象成为Reader/Writer插件,纳入到整个同步框架中。

Reader:Reader为数据采集模块,负责采集数据源的数据,将数据发送给Framework。
Writer: Writer为数据写入模块,负责不断从Framework取数据,并将数据写入到目的端。
Framework:Framework用于连接reader和writer,作为两者的数据传输通道,并处理缓冲,流控,并发,数据转换等核心技术问题。

DataX3.0核心架构

DataX 3.0 开源版本支持单机多线程模式完成同步作业运行,阿里内部版本应该支持分布式,本小节按一个DataX作业生命周期的时序图,从整体架构设计非常简要说明DataX各个模块相互关系。

image.png-59.8kB
核心模块介绍:

DataX完成单个数据同步的作业,我们称之为Job,DataX接受到一个Job之后,将启动一个进程来完成整个作业同步过程。DataX Job模块是单个作业的中枢管理节点,承担了数据清理、子任务切分(将单一作业计算转化为多个子Task)、TaskGroup管理等功能。
DataXJob启动后,会根据不同的源端切分策略,将Job切分成多个小的Task(子任务),以便于并发执行。Task便是DataX作业的最小单元,每一个Task都会负责一部分数据的同步工作。
切分多个Task之后,DataX Job会调用Scheduler模块,根据配置的并发数据量,将拆分成的Task重新组合,组装成TaskGroup(任务组)。每一个TaskGroup负责以一定的并发运行完毕分配好的所有Task,默认单个任务组的并发数量为5。
每一个Task都由TaskGroup负责启动,Task启动后,会固定启动Reader—>Channel—>Writer的线程来完成任务同步工作。
DataX作业运行起来之后, Job监控并等待多个TaskGroup模块任务完成,等待所有TaskGroup任务完成后Job成功退出。否则,异常退出,进程退出值非0
DataX调度流程:

举例来说,用户提交了一个DataX作业,并且配置了20个并发,目的是将一个100张分表的mysql数据同步到odps里面。 DataX的调度决策思路是:

扫描二维码关注公众号,回复: 6287803 查看本文章

DataXJob根据分库分表切分成了100个Task。
根据20个并发,DataX计算共需要分配4个TaskGroup(20/5)。
4个TaskGroup平分切分好的100个Task,每一个TaskGroup负责以5个并发共计运行25个Task。

编译源码

1,下载源码

$ git clone [email protected]:alibaba/DataX.git

2,配置 maven setting.xml

修改为阿里云镜像

<mirrors>
    <mirror>
        <id>custom-mirror</id>
        <mirrorOf>*</mirrorOf>
        <!--<url>http://maven.aliyun.com/nexus/content/groups/public/</url>-->
        <url>https://maven.aliyun.com/repository/central</url>
    </mirror>
</mirrors>

###3,编译打包
$ mvn -U clean package assembly:assembly -Dmaven.test.skip=true
###注:异常处理

异常一:

[ERROR] Failed to execute goal on project odpsreader: Could not resolve dependencies for project com.alibaba.datax:odpsreader:jar:0.0.1-SNAPSHOT: Could not find artifact com.alibaba.external:bouncycastle.provider:jar:1.38-jdk15 in custom-mirror (https://maven.aliyun.com/repository/central) -> [Help 1]

$ vim odpsreader/pom.xml
com.aliyun.odps
odps-sdk-core
换一下版本 :0.20.7-public

异常二:

[ERROR] Failed to execute goal on project otsstreamreader: Could not resolve dependencies for project com.alibaba.datax:otsstreamreader:jar:0.0.1-SNAPSHOT: Could not find artifact com.aliyun.openservices:tablestore-streamclient:jar:1.0.0-SNAPSHOT -> [Help 1]

$ vim otsstreamreader/pom.xml 
把 tablestore-streamclient 的版本 1.0.0-SNAPSHOT 改成 1.0.0

其他异常:

多数是由maven仓库缺少jar包所致,可将maven镜像改为私服重试,私服配置如下:

<mirrors>
    <mirror>
        <id>custom-mirror</id>
        <mirrorOf>*</mirrorOf>
        <url>http://xxx.xxx.xxx.xxx:9999/nexus/content/groups/public/</url>
    </mirror>
</mirrors>

public availibale repositories:
aliyun:https://maven.aliyun.com/repository/central/
Central:https://repo1.maven.org/maven2/
cloudra:https://repository.cloudera.com/content/repositories/releases
conjars:http://conjars.org/repo/

打包成功,日志显示如下:

[INFO] ------------------------------------------------------------------------
[INFO] Reactor Summary for datax-all 0.0.1-SNAPSHOT:
[INFO] 
[INFO] datax-all .......................................... SUCCESS [02:46 min]
[INFO] datax-common ....................................... SUCCESS [  1.704 s]
[INFO] datax-transformer .................................. SUCCESS [  1.092 s]
[INFO] datax-core ......................................... SUCCESS [  2.538 s]
[INFO] plugin-rdbms-util .................................. SUCCESS [  1.004 s]
[INFO] mysqlreader ........................................ SUCCESS [  0.817 s]
[INFO] drdsreader ......................................... SUCCESS [  0.871 s]
[INFO] sqlserverreader .................................... SUCCESS [  0.759 s]
[INFO] postgresqlreader ................................... SUCCESS [  0.898 s]
[INFO] oraclereader ....................................... SUCCESS [  0.730 s]
[INFO] odpsreader ......................................... SUCCESS [  4.434 s]
[INFO] otsreader .......................................... SUCCESS [  7.622 s]
[INFO] otsstreamreader .................................... SUCCESS [  2.919 s]
[INFO] plugin-unstructured-storage-util ................... SUCCESS [  3.740 s]
[INFO] txtfilereader ...................................... SUCCESS [  2.490 s]
[INFO] hdfsreader ......................................... SUCCESS [ 10.103 s]
[INFO] streamreader ....................................... SUCCESS [  0.771 s]
[INFO] ossreader .......................................... SUCCESS [  3.766 s]
[INFO] ftpreader .......................................... SUCCESS [  3.546 s]
[INFO] mongodbreader ...................................... SUCCESS [  3.219 s]
[INFO] rdbmsreader ........................................ SUCCESS [  0.750 s]
[INFO] hbase11xreader ..................................... SUCCESS [  8.536 s]
[INFO] hbase094xreader .................................... SUCCESS [ 15.437 s]
[INFO] opentsdbreader ..................................... SUCCESS [  9.389 s]
[INFO] mysqlwriter ........................................ SUCCESS [  0.656 s]
[INFO] drdswriter ......................................... SUCCESS [  0.628 s]
[INFO] odpswriter ......................................... SUCCESS [  1.318 s]
[INFO] txtfilewriter ...................................... SUCCESS [  2.235 s]
[INFO] ftpwriter .......................................... SUCCESS [  2.847 s]
[INFO] hdfswriter ......................................... SUCCESS [  5.695 s]
[INFO] streamwriter ....................................... SUCCESS [  0.656 s]
[INFO] otswriter .......................................... SUCCESS [  1.325 s]
[INFO] oraclewriter ....................................... SUCCESS [  0.674 s]
[INFO] sqlserverwriter .................................... SUCCESS [  0.714 s]
[INFO] postgresqlwriter ................................... SUCCESS [  0.660 s]
[INFO] osswriter .......................................... SUCCESS [  2.360 s]
[INFO] mongodbwriter ...................................... SUCCESS [  2.324 s]
[INFO] adswriter .......................................... SUCCESS [  4.402 s]
[INFO] ocswriter .......................................... SUCCESS [  6.219 s]
[INFO] rdbmswriter ........................................ SUCCESS [  0.735 s]
[INFO] hbase11xwriter ..................................... SUCCESS [  4.088 s]
[INFO] hbase094xwriter .................................... SUCCESS [  2.189 s]
[INFO] hbase11xsqlwriter .................................. SUCCESS [ 15.235 s]
[INFO] hbase11xsqlreader .................................. SUCCESS [ 14.237 s]
[INFO] elasticsearchwriter ................................ SUCCESS [  3.212 s]
[INFO] tsdbwriter ......................................... SUCCESS [  0.897 s]
[INFO] hbase20xsqlreader .................................. SUCCESS [01:47 min]
[INFO] hbase20xsqlwriter .................................. SUCCESS [ 29.320 s]
[INFO] ------------------------------------------------------------------------
[INFO] BUILD SUCCESS
[INFO] ------------------------------------------------------------------------
[INFO] Total time:  07:44 min
[INFO] Finished at: 2019-05-27T21:55:06+08:00
[INFO] ------------------------------------------------------------------------

打包成功后的DataX包位于 {DataX_source_code_home}/target/datax/datax/ ,结构如下:

$ cd  {DataX_source_code_home}
$ ls ./target/datax/datax/
bin    conf   job    lib    plugin script tmp

root@VECS02922:/app/compile/DataX/target# du -sh *
4.0K    archive-tmp
1.3G    datax
1.2G    datax.tar.gz

猜你喜欢

转载自www.cnblogs.com/hit-zb/p/10933715.html
今日推荐