Spring for Apache Hadoop 的 Reference 二

<!--[if !supportLists]-->1. <!--[endif]-->MapReduce和分布式缓存

4.1. 创建Hadoop作业

Hadoop配置完成之后需要提交一些作业。SHDP让这个过程变得很简单,不管是map-reduce类型的还是streaming。下面看一个例子:

<hdp:job id=mr-job

   input-path=”/input/ output-path=/output/

   mapper=org.apache.hadoop.examples.WordCount.TokenizerMapper

   reducer=org.apache.hadoop.examples.WordCount.IntSumReducer/>

上面的声明创建一个典型的Hadoop Job:指定它的输入/输出目录,以及mapperreducer类。注意声明中并没有指向Hadoop的配置bean因为如果没有指定,默认的约定命名(hadoopConfiguration)会被使用。声明中也没有说明mapperreducer输入输出的keyvalue的类型这两个值的类型会通过解析mapperreducer类信息经最优尝试做出设定。当然,这些设定可以被覆盖:前者通过configuration-ref,后者通过keyvalue的属性。还有大量可用的选项没有在例子中展示,例如jar包(直接通过类指定了),排序分组比较器,combinerpartitioner,使用的解码器或是输入/输出仅仅做了命名。只要看一看SHDPschema或者在ide中使用自动补全功能,如果它支持XML的命名空间并被正确配置就能显示出可用的元素。另外,还可以扩展默认的Hadoop配置对象添加任何在命名空间中不可用的特殊属性或者他的支持bean(backing bean)(JobFactoryBean)

值得指出的是每个job的特定的配置都可以被属性直接设定或者引用这些配置。

<hdp:job id=mr-job

   input-path=”/input/” output-path=/output/

   mapper=mapper class reducer= reducer class

   jar-by-class=class used for jar detection,检测jar包的类

properties-location=classpath:special-job.properties>

     electric=sea

</hdp:job>

   

<hdp:job>提供了一些额外的属性,例如#hadoop:generic-options[通用属性],值得特别说明的是jar属性可以将job(以及其依赖的包)通过一个指定的jar包完全加载。这在独立运行的job中可以避免classpath和版本冲突。注意:将jar包提交至集群仍然依赖于目标环境察看前面提及的#hadoop:generic-options部分获取更多信息(比如 libs属性)

4.1.1.创建Hadoop Streaming作业

Hadoop Streaming是一个常用的属性,它允许使用任何可执行的脚本创建Map/Reduce作业。从命令行启动streaming非常简单,类似java环境中编码方式是实现,但是由于各种类型的参数(以及它们的顺序)需要被解析会比较麻烦。SHDP简化了这个过程可以像前面的例子一样非常简单直接地声明一个作业,事实上多数属性都是一样的。

<hdp:streaming id=streaming

  Input-path=/input output-path=/output/

  Mapper=${path.cat} reducer=${path.wc}/>

终端用户可能比较想了解如何给命令行传递参数,例如-D或者-cmdenv。前面已经定制了Hadoop的配置,接下来看看如何使用cmd-env元素。

<hdp:streaming id=streaming

   Input-path=/input/ output-path=/output/

   Mapper=${path.cat} reducer=${path.wc}

   <hdp:cmd-env>

       EXAMPLE_DIR=/home/example/dictionaries/

       ......

       </hdp:cmd-env>

</hdp:streaming>

Job一样streaming支持#hadoopgeneric-option[generic options]

 

4.2. 运行Hadoop 作业

作业被创建和配置之后,接下来的任务就是提交至集群并运行。对于比较重大的需要多个步骤连接运行的作业,推荐使用工作流解决方案,例如Spring Batch。但是对于基础性的作业SHDP提供了job-runner(使用JobRunner类进行支持)元素进行提交,它可以顺序提交多个job(默认情况下一个运行结束再提交下一个)。

<hdp:job-runner id=myjob-runner pre-action=cleanup-script post-action=export-results job-ref=myjob run-at-startup=true />

<hdp:job id=myjob input-path=/input/ output-path=/output/

   Mapper=org.apache.hadoop.example.WordCount.TokenizerMapper

   Reducer=org.apache.hadoop.example.WordCount.IntSumReducer

如果作业在runner之外没有被使用过,多个job可以被同时提交。

<hdp:job-runner id=myjobs-runner pre-action=cleanup-script post-action=export-results job-ref=myjob,myjob2 run-at-startup=true/>

<hdp:job id=myjob ... />

<hdp:job id=myjob2 .. ./>

一个或多个Map-Reduce作业可以通过job属性被同时提交,按照定义的顺序进行执行。Runner在应用启动之后被触发(注意run-at-startup的标志位默认是false)。注意除非手工触发或者run-at-startup设为true,否则runner不会被触发。另外runner允许一个或者多个prepost处理被指定,它们会在作业每次运行之前或之后运行。更过runner的信息参见专门的章节。

注意:当Hadoop作业的提交和运行被阻塞(wait-for-completiontrue)时,JobRunner使用一个JDK 执行器启动(停止)一个作业。默认的实现是SyncTaskExecutor使用调用线程执行作业,模仿hadoop 命令行的行为。但是hadoop作业都是时间消型的,某些情况下会导致应用被冻结,影响应用的正常操作甚至意外退出。生产应用之前,要检查一下job策略是否合适,控制数据流量或者数据池的实现方式是否更好。可以通过executor-ref参数改变job-runner的行为。

作业runner同时也支持应用关闭时取消某个作业(或者kill掉)。这种方式只应用于runner的等待完成模式(wait-for-completiontrue)使用一个不同的执行器,使用一个不同的线程调用(也就是说调用线程在执行下一个任务之前必须等待当前作业完成。)

4.2.1.使用Hadoop作业的任务调度器

Spring Batch环境下,SHDP提供了一个专用任务调度器把Hadoop的作业作为Spring Batch工作流中的一个步骤执行。例子如下:

<hdp:job-tasklet id=hadoop-tasklet job-ref=mr-job wait-for-completion=true/>

上面的调度器指向了一个名为mr-job的作业。默认情况下,wait-for-completion为真,因此当它执行时调度器会等待作业直至完成。把wait-for-completion设置为false可以把job提交至Hadoop,但是不会等待其结束。

4.3. 运行Hadoop的工具

通过命令行启动Hadoop的工具类和相关库司空见惯。SHDP对这种情况的通用支持提供了建立在Hadoop标准基础之上的的包,即Tool类和ToolRunner类。与命令行用法不同的是,Tool类的实例可以继承Spring IOC的特性,他们可以按照需要被参数化,被创建被销毁并可拥有他们自己的属性(例如Hadoopconfiguration)。

运行hadoop jor包典型的例子如下:调用一个含有两个参数的类,(注意同时也传递了hadoop configuration的属性)

bin/hadoop jar -conf hadoop-site.xml -jt darwin:50020 -Dproperty=value someJar.jar

既然SHDP用第一个类支持了Hadoop#hadoopconfig[configuring]属性,那么被称为的“generic options”就不再需要了,典型情况下甚至每个应用可能只有一个Hadoop配置对象。通过tool-runner元素(和它的支撑类ToolRunner)通常只需指定Tool实现类和它的参数。

<hdp:tool-runner id=someTool tool-class=org.foo.SomeTool run-at-startup=true>

   <hdp:arg value=data/int.xt/>

   <hdp:arg value=data/out.txt/>

   Property=value

</hdp:tool-runner>

另外,tool-runner也允许在tool-class运行之前或之后指定一个或多个pre或者post处理。通常指定的作业或者脚本不能是基于JDK运行的。注意除非手动触发或者将run-at-startup设置为true,否则tool-runner不能被运行。

前面的例子中假设了Tool依赖的类在classpath中存在。如果不是这种情况,tool-runner允许指定jar包:

<hdp:tool-runner ... Jar=myTool.jar>

...

</hdp:tool-runner>

这个jar被用来实例化并启动这个tool,事实上所有依赖的都从这个jar加载,它们可以不必是classpath的一部分。这个运行机制为tools以及它们依赖的特定包不同的版本之间建立隔离,而不用把它们加入同一个app(消除版本冲突的影响),这些tools可以被简单地指向不同的jar包,并以其自有的方式运行。需要指出的是如果使用的jar包的main类就是目标Tool,就不用指定这个tool的类了。

像其他的SHDP元素一样,tool-runner允许传递相应的Hadoop的配置#hadoop:config:properties[customized]。通常Tool的实现类有一个默认的参数tool-class属性,不过指向其他的Tool的实例或者声明一个嵌套的Tool实现类也是可以的。

 

<hdp:tool-runner id =someTool run-at-startup=true>

   <hdp:tool>

     <bean class=org.foo.AnotherTool p:input=data/in.txt p:output=data/out.txt/>

   </hdp:tool>

</hdp:tool-runner>

如果Tool类提供了setters或者带参构造器这样做非常方便。Tool-runner不会执行Tool工具类除非工具类被真正的调用了,这个行为可以被上述的run-at-startup属性改变。                                                                                                                                   

4.3.1. 使用tool-runner替换Hadoop的命令行调用

Tool-runner是一个迁移通过shell调用或者通过脚本连接的一系列Java对象的好方法。比如下面的shell脚本:

hadoop jar job1.jar -files fullpath:properties -Dconfig=config.properties ...

hadoop jar job2.jar arg1 arg2 ...

...

Hadoop jar job10.jar...

 

每个作业都被包含在特定的jar包中,包括其所有的依赖包。另外每个调用都可能要提供一些通用选项或者参数,但是多数情况下都共享相同的设置(就像他们都运行在同一个集群上)。

上面的脚本使用tool-runner元素移植到SHDP会是如下的样子:

<hdp:tool-runner id=job1 tool-class=job1.Tool jar=job1.jar file=fullpath:props.properties properties-location=config.properties/>

<hdp:tool-runner id=job2 jar=job2.jar

  <hdp:arg value=arg1/>

  <hdp:arg value=arg2/>

</hdp:tool-runner>

<hdp:tool-runner id=job3 jar=job3.jar/>

...

所有的特性在前面的章节已经解释过了,让我们重新审视一下看看到底发生了什么。像前面所说的一样,所有的tool都读取hadoopConfiguration的配置;但是job1使用其自己的属性替代了统一的配置。对于Tool类指定的第一个jar,假定jar_Main-Class_es实现了Tool的接口,命名空间会自动发现并使用他们。当需要的时候额外的文件或者类库也会被提交至集群。这种方式同样适用与作业的参数。

很多事情可以通过使用这个配置避免使用脚本,每个作业不但可以不通过本地文件系统拥有多个属性加载或者内联声明,而且可以从classpath或者其他url获取这些属性。事实上,整个配置可以通过Springproperty placeholder或者Environment abstraction被外部化和参数化。此外,每个作业都可以通过Springdepends-on或功能更加强大的Spring Batchtool-tasklet独自运行或者作为工作流的一部分被运行

4.3.2. 使用Hadoop的工具任务调度器

Hadoop Batch环境中,SHDP提供了一个专门的任务调度器把Hadoop的任务当作Spring Batch工作流中的一个环节运行。Tasklet元素支持除了run-at-startup之外的和#hadoop:tool-runner[tool-runner](不支持在工作流中使用)一样的配置选项:

<hdp:tool-tasklet id=tool-tasket tool-ref=some-tool />

 

4.4. 运行HadoopJar

SHDP还提供了对Hadoop jar运行的支持。例如最著名的WordCount例子:

bin/hadoop jar hadoop-example.jar wordcount /wrodcount/input /wordcount/output

变成了:

<hdp:jar-runner id=wordcount jar=hadoop-example.jar run-at-startup=true>

  <hdp:arg value=wordcount/>

  <hdp:arg value=/wordcount/input/>

  <hdp:arg value=/wordcount/output/>

</hdp:jar-runner>

注意:和hadoop jar命令一样如果没有指明jarMain-Class会自动读取。也可以通过main-class属性进行设置。

 

另外,jar-runnerjob-runner一样允许指定一个或多个预处理或者后处理。通常情况下都是非JDK调用的runner。除非手动触发或者run-at-startup设置为true否则jar-runner不会运行。

Jar support提供了一个代替命令行进行jar调用的不错的方式。特别指出的是由于jar被执行的时候Hadoop Configuration对象的启用可以自动继承Hadoop配置的上下文信息。实际上,像其他的SHDP元素一样,jar元素允许为jar的运行本地声明#hadoopconfigproperties[configuration properties]。例如,使用如下的声明:

<hdp:jar-runner id=wordcount jar=hadoop-example.jar run-at-startup=true>

  <hdp:arg value=wordcount/>

  ...

  speed=fast

</hdp:jar-runner>

jar包的编码中可以这样使用添加的属性

Assert fast.equals(new Configruation().get(speed);

这种方式可以让Hadoop基础jar包在不进行修改的情况下使用封闭的应用范围的Hadoop配置。

我们认为这是一个不错的特性,强烈建议使用这个支持工具替换目前的方式或者迁移过来,主要有几个原因无约束和低耦合:

没有标准配置注入

SHDP为向jar传递Hadoop配置做了很好多的努力但是也不能保证jar本身没有使用特定的初始化机制导致忽略这些传入的属性。一个vanilla配置不是特别有用因此应用倾向于提供定制的编码来解决。

System.exit()调用

多数运行jar的例子假设它们在命令行被启动,不代码成功与否都通过调用System.exit来关闭JVMSHDP想要阻止这种情况的发生(否则整个应用程序会突然关闭),但这明显是一个糟糕的代码协作标志。

SHDP尽可能地用智能的默认方式提供最好的集成体验,但是直到现在还没有任何有保证的成型的使用模式。目前来看使用Tool接口是个不错的选择。

4.4.1 使用Hadoop Jar任务调度器

Spring Batch环境下的其他任务一样,SHDP为将Hadoop jar当做Spring Batch的一个步骤运行提供了专用的调度器。调度器元素支持除“run-at-startup”之外的像#hadoop:jar-runner一样的配置选项。

<hdp:jar-tasklet id=jar-tasklet jar=some-jar.jar/>

4.5. 配置Hadoop的分布式缓存

分布式缓存是Hadoop为分布式应用特别定制的组件,对于处理只读大文件有很高的效率(text、归档、jar包等等)。应用通过urls指定使用DsiatributedCache缓存的文件,框架会在job的任何任务在计算节点上运行之前将必要的文件加载至这个节点。这是一种效率很高的机制因为每个job只需要拷贝一次并且只缓存没有归档的数据文件。需要注意的是DistributedCache假设需要被缓存的文件(即通过hdfs://urls指定的文件)在HadoopFileSystem上已经存在。

SHDP通过cache元素(其支撑类为DistributedCacheFactoryBean)为分布式缓存提供了非常易用的配置,通过计算节点何以方便地进行分布式缓存文件和归档。

<hdp:cache create-symlink=true>

  <hdp:classpath value=/cp/some-library.jar#library.jar />

  <hdp:cache value=/cache/some-archive.tgz#main-archive />

  <hdp:cache value=/cache/some-resource.res />

  <hdp:local value=some-file.txt />

</hdp:cache>

上面的定义使用cache注册了几个资源(把它们添加至job的缓存或者classpath)并且为它们创建了符号连接。声明的格式为absolute-path#link-nameLink-name如果没有指定则由URI的片段自动设定,cache bean会根据resource文件名生成一个。请注意,所有的设定并没有hdfs://node:port前缀,这个前缀是根据与bean联系的配置决定的;这样可以避免环境配置中以硬编码的方式进行设定,增加了应用的移植性。另外根据不同的扩展名(.tgz.tar.gz.zip.tar)对于需要解压的归档定义方法也是不同的,一般文件就进行简单的copy。命令空间中剩下的声明对于默认依赖的Hadoop ConfigurationFileSystem对象也没有相应的配置(通过configuration-ref 和 file-system-ref)它会倒回到默认命名中与名为hadoopConfigurationbean进行关联并自动创建FileSystem对象。

注意:如果客户端在Windows平台在DistributedCache中建立classpath应该将系统的path.separator属性设置为“:”。否则classpath的设置就是错误的并被忽略--查看HADOOP-9123bug报告获取更多信息。修改path.separator有多种方法,最快捷的方法就是在启动时运行一个JavaScript脚本:

<hdp:script language=javascript run-at-startup=true>

  java.lang.System.setProperty(path.separator,:)

</hdp:script>

4.6. Map Reduce通用选项

Jobstreamingtool都支持通用选项的子集,尤其是archivesfileslibs。扩展jobclasspathlibs无疑是最有用的一个属性,虽然其他两个属性允许为job的运行在集群范围内copy资源和归档。当面临依赖供应问题时重新审视这些属性有极大的帮助。注意,fsjtconf选项并不被支持,它们都是被设计用在命令行使用的,用来引导引用程序。在SHDP提供了优秀的Hadoop配置的定义和定制后这些就不再需要了。

猜你喜欢

转载自karo-lee.iteye.com/blog/2209056