大数据学习之azkaban任务调度学习26

 1:Azkaban概述

Azkaban是一个分布式工作流管理器,在LinkedIn上实现,以解决Hadoop作业依赖性问题。我们有需要按顺序运行的工作,从ETL工作到数据分析产品。

2:为什么需要工作流调度系统

1)一个完整的数据分析系统通常都是由大量任务单元组成:
  shell 脚本程序,java 程序,mapreduce 程序、hive 脚本等。


2)各任务单元之间存在时间先后及前后依赖关系。


3)为了很好地组织起这样的复杂执行计划,需要一个工作流调度系统来调度执行。
  例如,我们可能有这样一个需求,某个业务系统每天产生 20G 原始数据,我们每天都要对其进行处理,处理步骤如下所示:
  1)通过 Hadoop 先将原始数据同步到 HDFS 上;
  2)借助 MapReduce 计算框架对原始数据进行计算,生成的数据以分区表的形式存储到多张 Hive 表中;
  3)需要对 Hive 中多个表的数据进行 JOIN 处理,得到一个明细数据 Hive 大表;
  4)将明细数据进行复杂的统计分析,得到结果报表信息;
  5)需要将统计分析得到的结果数据同步到业务系统中,供业务调用使用。
如下图所示:

2:特点:

1)给用户提供了一个非常友好的可视化界面->web界面

2)非常方便的上传工作流-》打成压缩包

3)设置任务间的关系

4)权限设置-》删库到跑路

5)模块化

6)随时停止和启动任务

7)可以查看日志记录

3:Oozie对比

Oozie相对比,azkaban是一个轻量级调度工具。

企业应用的功能并非小众的功能可以使用Azkaban。

1)功能

两个任务流调度器可以调度使用mr,java,脚本工作流任务

都可以进行定时调度...

2)使用

az直接传参

Oozie直接传参,支持EL表达式...

3)定时

az定时执行任务基于时间

Oozie任务基于时间和数据

4)资源

az有严格的权限控制

Oozie无雅阁权限控制

4:Azkaban安装部署

准备工作

1)快照

2)上传安装包

alt+p

3)解压重命名

tar -zxvf

mv

4)mysqlazkaban脚本导入

source /root/hd/azkaban/azkaban-2.5.0/create-all-sql-2.5.0.sql

安装部署

1)创建SSL(安全连接)配置

服务器需要一个证书

keytool -keystore keystore -alias jetty -genkey -keyalg RSA

2)时间同步设置

生成时区文件

tzselect生成

5->9->1->yes

拷贝时区文件

cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

集群时间同步

crt中开启交互窗口 发送

sudo date -s '2018-11-28 20:41:33'

3)修改配置文件

4)启动web服务器

bin/azkaban-web-start.sh

5)启动执行器

bin/azkaban-executor-start.sh

6)访问web

https://192.168.50.183:8443

这里安装步骤我写的很粗略,可以参照这篇文章来安装部署

https://www.cnblogs.com/chenmingjun/p/10506488.html

实战操作

案例一:Command类型之单job

创建job描述文件:

然后打包成zip文件上传到azkaban

 

案例二:Command类型之多job案例

创建f.job

创建b.job

其中b依赖f

然后将这2job文件打包在一个zip并上传到azkaban中。

案例三:hdfs任务操作

创建job文件

注意这里使用到的hdfs命令必须是Linux中该命令的全路径

然后将这个job文件打包成zip并上传到azkaban中。

案例4:运行MapReduce程序

这里我们用的是hadoop自带的一个例子程序。下面编写job文件

将单词计数的jar文件 和job文件打包上传到azkaban任务中

 

案例5 hive脚本任务

1:创建hive脚本 

2:编写job文件

然后将这个job文件和sql文件打包成zip并上传到azkaban中。

这里有毒啊!!不知道为什么运行hive有问题

Execute报错信息

WebServer报错信息

猜你喜欢

转载自www.cnblogs.com/hidamowang/p/10935402.html