Hadoop组件--Yarn

分布式资源管理与任务调度框架Yarn
一、Yarn简介
1、Yarn是什么
Apache Hadoop Yarn (Yet Another Resource Negotiator,另一种资源协调者 )
一种新的Hadoop资源管理器,一种通用资源管理系统。
为上层提供统一的资源管理与任务调度及监控,提高了集群管理效率、资源使用率、数据共享效率。

2、产生背景
在Hadoop1.x中MapReduce是Master/Slave结构,在集群中的表现形式为1个JobTracker带多个TaskTracker,我们称之为MRv1.
Master:是整个集群的唯一的全局管理者,功能包括:作业管理、状态监控和任务调度等,即MapReduce中的JobTracker
Slave:负责任务的执行和任务状态的汇报,即MapReduce中的TaskTracker

MRv1包括三个部分:运行时环境(JobTracker和TaskTracker)、编程模型(MapReduce)和数据处理引擎(Map任务和Reduce任务)
JobTracker主要功能:
资源管理:协调平衡集群中的计算节点,合理分配
任务调度:一个作业对应多个任务,负责任务调度、状态监控、容错管理等。

TaskTracker主要功能:
执行任务:响应JobTracker命令,如启动、停止任务等。
汇报心跳:汇报节点健康状况、资源使用情况等。汇报任务执行进度、任务运行状态等。

MRv1存在的主要问题:
JobTracker单点故障,如果他挂掉,整个系统无法运转。
JobTracker负载过重,限制了集群的扩展,随意节点规模的增大,称为集群的瓶颈。
仅支持MR计算框架,适合批处理、基于磁盘的计算。
资源与计算没有很好的解耦设计,一个集群只能用一个计算框架,如Hadoop&MapReduce集群、Spark集群、Tez集群等。造成管理复杂,资源利用率低的难题。
综上所述MRv1有以上缺陷:扩展性受限、单点故障、难以支持MR之外的计算框架,多计算框架各自为战,数据共享困难,资源利用率低。这些因素催生了Yarn产生。

3、Yarn特点
资源管理与计算框架解耦设计,一个集群资源共享给上层各个计算框架,按需分配,大幅度提高资源利用率。
运维成本显著下降,只需运维一个集群,同时运行满足多种业务需求的计算框架。
集群内数据共享一致,数据不再需要集群间拷贝转移,达到共享互用。
避免单点故障、集群资源扩展得到合理解决。

4、Yarn应用
需要统一资源管理和任务调度的平台均可以使用,已成为大数据集群的必备组建之一。

二、Yarn架构设计
1、架构设计图
Yarn设计的核心思想是将JobTracker的两个主要职责:资源管理与任务调度,分别交给两个角色负责。
一个是全局的ResourceManager,一个是每个应用中唯一的ApplicationMaster。
ResourceManager以及每个节点的NodeManager构成了新的通用系统,实现以分布式方式管理应用。

2、基本组成
YARN总体上仍是Master/Slave结构,在整个资源管理框架中,ResourceManager为Master,NodeManager为Slave。YARN主要是由ResourceManager、NodeManager、ApplicationMaster和Container 等几个组件构成。
2.1概要介绍
Master/Slave结构:一个ResourceManager和多个NodeManager
Yarn由Client、ResourceManager、NodeManager、ApplicationMaster组成。
Client向ResourceManager提交启动任务、杀死任务等命令请求。
ApplicationMaster由对应的计算框架编写的应用程序完成。每个应用程序对应一个ApplicationMaster,ApplicationMaster向ResourceManger申请资源用于在NodeManger上启动相应的Task。
NodeManager向ResourceManager通过心跳信息汇报NodeManager监控情况、任务执行情况、领取任务等。
2.2详细介绍
2.2.1Client:面向用户提交的Driver代码,作为用户编程的接口,与ResourceManager交互。
2.2.2ResourceManager:整个集群只有一个是存活(active)的,负责集群资源的统一管理和调度。
负责整个集群的资源分配和调度。
处理来自客户端的请求、启动、杀死应用程序。
启动、监控ApplicationManager,一旦一个AM挂了之后,RM将会在另一个NodeManager上启动该AM
监控NodeManager,接收NM的心跳汇报信息,获取NM的资源使用情况和Container运行状态。
2.2.3NodeManager:整个集群中有多个,负责单节点资源管理和使用。
负责单个节点上的资源管理和任务调度
处理来自ApplicationMaster的命令
接收并处理来自ResourceManager的Container启动、停止的各种命令
周期性向ResourceManager汇报本节点上的资源使用情况和Container的运行状态
2.2.4ApplicationMaster:每个应用程序特有,负责应用程序的管理。
数据切分
为应用程序/作业向ResourceManager申请资源(Container),并分配给内部任务
与NodeManager通信以启动、停止任务
任务监控和容错(在任务执行失败时重新为该任务申请资源以重启任务)
处理ResourceManager发来的命令,让NodeManager重启任务、杀死Container等。
2.2.5Container:对任务运行环境的抽象
任务运行资源的抽象,封装了某个节点上的多维度资源,如内存、cpu、磁盘、网络等
任务命令启动、停止的执行单元。
任务运行环境,任务运行在Container中,一个Container中既可以运行ApplicationMaster也可以运行具体的MapReduce、MPI、Spark等任务。
2.3运行流程
2.3.1运行流程图
2.3.2运行流程详解
1)用户向Yarn中提交作业/程序,其中包括ApplicationMaster程序、启动ApplicationMaster的命令、用户程序等。
2)ResourceManager为作业分配第一个Container,并与相对应的NodeManager通信,要求它在这个Container中启动该作业的ApplicationMaster。
3)NodeManager启动一个Container运行ApplicationMaster
4)ApplicationMaster首先向ResourceManager注册,这样用户可以直接通过ResourceManager查询该作业的运行状态,然后它将为各个任务申请i资源并监控任务的运行状态。
如果Container没有完全申请到位,则会先使用已经分配到位的部分Container资源进行后续的第5、6、步骤,其余Container部分由ApplicationMaster采用轮询的方式通过RPC(Remote Proceduce Call远程过程调用)请求向ResourceManager申请和领取资源,直到全部资源分配到位。
5)一旦ApplicationMaster申请到资源后,便于对应的NodeManager通信,要求他启动任务。
6)NodeManager执行ApplicationMaster发送的命令,启动Container任务
7)各个Container通过RPC向ApplicationMaster汇报自己的状态与进展,以让ApplicationMaster随时掌握各个任务的运行状态,从而可以在任务失败的时重新启动任务。
在作业运行过程中,用户可以随时通过RPC向ApplicationMaster查询作业当前的运行状态。
8)作业完成后,ApplicationMaster向ResourceManager申请注销并关闭自己

三、Yarn调度策略
3.1MRv1的调度方式
集中式调度器,资源调度和应用程序的管理功能集中到单一进程完成,扩展性极差。
3.1.1集群规模受限,集群达到一定规模(4000个节点)后,JobTracker压力过大容易发生单点故障
3.1.2新的调度策略难以融入到现有的代码中,之前仅支持MapReduce作业现在要支持Spark等作业,而将新的作业的调度策略加入到集中式调度中时极难的工作。

3.2Yarn双层调度架构
为了克服集中式调度器的不足,双层调度器是一种很容易被想到的解决之道,它可以看作一种分而治之的机制或者是策略下放机制,双层调度器仍保留一个经简化的集中式资源调度器,但具体任务相关的调度策略下放到各个应用程序调度器完成。
3.2.1将传统的集中调度器一分为二,即资源调度器(ResourceManager)和应用程序调度器(ApplicationMaster)
3.2.2ResourceManager即简化了的集中式资源调度器,具体作业的资源调度和管理由应用程序调度器ApplicationMaster负责。

3.3常用调度策略
理想情况下,我们对Yarn资源的请求应该立刻得到满足,但现实情况资源往往是有限的,特别是在一个很繁忙的集群,一个应用资源的请求经常需要通过等待一段时间才能得到相应的资源。在Yarn中,负责给应用分配资源的就是Scheduler。其实调度本身就是一个难题,很难找到一个完美的策略可以解决所有的应用场景,为此,Yarn提供了多种调度器和可配置的策略供我们选择。
3.3.1FIFO Scheduler(First In First Out,先进先出)
默认的调度策略,把用户提交的作业顺序排成一个队列,所有用户共享,是一个先进先出的队列。无法控制用户的资源使用,大的应用可能会占用所有集群资源,导致其他应用被堵塞,造成集群的可用性差,所以不适合共享集群,一般不在生产环境中使用。
3.3.2Capacity Scheduler(容器调度器)
允许多用户共享整个集群,每个用户或组织分配专门的对列,不支持抢占式。队列内部默认使用FIFO,也支持Fair调度。
3.3.3Fair Scheduler(公平调度器)
目标是为所有的用户分配公平的资源,也支持多用户共享集群,也可以划分多队列,队列内部不是FIFO,而是采用公平分配的方式。
3.3.4总结
调度名称 特点
FIFO Scheduler 默认的队列内部调度器,只有一个队列,所有用户共享,简单好理解,无法控制用户的资源使用,造成集群的可用性很差,一般不在生产环境下使用。
Capacity Scheduler 多用户,分队列,ACL控制,不支持抢占式,队列内部依然是FIFO,也可以采用Fair
Fair Scheduler 多用户,多队列,ACL控制,支持抢占式,队列内部不是FIFO,而是公平分配的方式。

四、Yarn shell应用
4.1Yarn命令
Yarn提供了shell环境通过调用bin/yarn脚本文件来执行Yarn的命令。
4.1.1查看Yarn一级命令
直接输入yarn回车即可查看yarn的一级命令。显示可用命令列表
4.1.2查看版本信息
yarn version
4.1.3使用Yarn提交jar包
yarn jar jarName mainClassPath -Dk1=v1 -Dk2=v2 inpurpath
ouyputpath
4.1.4获取yarn运行时的classpath
yarn classpath
4.1.5查看所有正在运行的application列表
yarn application -list
4.1.6查看yarn的使用情况
yarn top
4.2Yarn shell应用
使用yarn执行任务,指定任务使用的资源队列名为oncource
4.2.1 步骤拆解:
1)新建资源队列 oncourse
2)修改 MapReduce 代码中的 Driver 代码,使之可以使用 yarn 命令指定的系统配置参数,如指 定所使用的资源队列
3)修改 yarn jar 指定系统配置参数
4)查看执行结果
5)查看任务使用的资源队列情况
4.2.2 详细执行:
1)新建资源队列,参考上节的配置说明
2)修改 MapReduce 代码中的 Driver 代码 新增GenericOptionsParser:hadoop 自带的解析工具类,解析传入的系统配置参数值
3)源代码实现,只需修改 Driver 类的 main 方法,如下:
//启动 mr 的 driver 方法
public static void main(String[] args) throws Exception { //得到集群配置参数 Configuration conf = new Configuration(); //参数解析器 GenericOptionsParser optionParser = new GenericOptionsParser(conf, args); String[] remainingArgs = optionParser.getRemainingArgs(); if ((remainingArgs.length != 2)) { System.err.println("Usage: yarn jar jar_path main_class_path -Dk=v 列表 "); System.exit(2); } // org.apache.hadoop.io.compress.LzopCodec lc=null; //设置到本次的 job 实例中 Job job = Job.getInstance(conf, “天亮 WordCountV2”); //指定本次执行的主类是 WordCount job.setJarByClass(WordCountV2.class); //指定 map 类 job.setMapperClass(TokenizerMapper.class); //指定 combiner 类,要么不指定,如果指定,一般与 reducer 类相同 job.setCombinerClass(IntSumReducer.class); //指定 reducer 类 job.setReducerClass(IntSumReducer.class); //指定 job 输出的 key 和 value 的类型,如果 map 和 reduce 输出类型不完全相同,需要重新 设置 map 的 output 的 key 和 value 的 class 类型 job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); //指定输入数据的路径 FileInputFormat.addInputPath(job, new Path(remainingArgs[0])); //指定输出路径,并要求该输出路径一定是不存在的 FileOutputFormat.setOutputPath(job, new Path(remainingArgs[1])); //指定 job 执行模式,等待任务执行完成后,提交任务的客户端才会退出! System.exit(job.waitForCompletion(true) ? 0 : 1); }
修改 yarn jar 指定系统配置参数 yarn jar testhdfs-jar-with-dependencies.jar com.tianliangedu.core.WordCountV2 -Dmapreduce.job.queuename=oncourse /tmp/tianliangedu/input /tmp/tianliangedu/output14
查看执行结果:使用 hdfs dfs -cat $hdfs_output_path 即可,与之前结果一致
查看任务使用的资源队列情况

五、Yarn特征说明
5.1统一的资源管理与任务调度框架
5.2双层调度框架
5.3容错性说明
5.3.1ResourceManager(RM) Failure
同时启动多个 RM,基于 Zookeeper 实现 HA 避免单点故障,但同时只有一个是 active 状态
5.3.2ApplicationMaster(AM) Failure ApplicationMaster 挂掉后,由 ResourceManager 负责重启。ResourceManager 的 ApplicationsManager 模块会保存已经完成的 Task,重启后无需重新运行。 ApplicationMaster 需要处理内部任务的容错问题,如 Task Failure。
5.3.3 NodeManager(NM) Failure 若包含 Task 计算任务执行失败后,ApplicationMaster 决定处理方法。若包含 AM 任务,则 由 RM 重启一个新的 Container 运行 AM。
5.3.4Task Failure 通过心跳把信息反馈给 AM,或者心跳超时被 AM 感知,由 AM 通过重试恢复 Task。

RPC添加链接描述

猜你喜欢

转载自blog.csdn.net/fakerlove/article/details/84995260
今日推荐