Spark on Yarn 解惑

一:Hadoop Yarn解析

         1,Yarn是Hadoop推出整个分布式(大数据)集群的资源管理器,负责资源的管理和分配,基于Yarn我们可以在同一个大数据集群上同时运行多个计算框架,例如Spark、MapReduce、Storm等;

         2,Yarn基本工作流程如下图所示:

         注意:Container要向NodeManager汇报资源信息,Container要向App Mstr汇报计算信息;

         3,客户端Client向ResourceManager提交Application,ResourceManager接受应用并根据集群资源状况决定在某个具体Node上来启动当前提交的应用程序的任务调度器Driver(ApplicationMaster),决定后ResourceManager会命令具体的某个Node上的资源管理器NodeManager来启动一个新的JVM进程运行程序的Driver部分,当ApplicationMaster启动的时候(会首先向ResourceManager注册来说明自己负责当前程序的运行)会下载当前Application相关的Jar等各种资源并基于此决定具体向ResourceManager申请资源的具体内容,ResourceManager接受到ApplicationMaster的资源分配的请求之后会最大化的满足资源分配的请求并发送资源的元数据信息给ApplicationMaster,ApplicationMaster收到资源的元数据信息后会根据元数据信息发指令给具体机器上的NodeManager让NodeManager来启动具体的Container,Container在启动后必须向AppplicationMaster注册,当ApplicationMaster获得了用于计算的Containers后,开始进行任务的调度和计算,直到作业执行完成。需要补充说的是,如果ResourceManager第一次没有能够完全完成ApplicationMaster分配的资源的请求,后续ResourceManager发现集群中有新的可用资源时候,会主动向ApplicationMaster发送新的可用资源的元数据信息以提供更多的资源用于当前程序的运行!

         补充说明:

1,           如果是Hadoop的MapReduce计算的话Container不可以复用,如果是Spark on Yarn的话Container;

2,           Container具体的销毁是由ApplicationMaster来决定的;ApplicationMaster 发指令给NodeManager让NM销毁Container

        

二:Spark on Yarn的两种运行模式实战:此时不需要启动Spark集群,只需要启动Yarn即可!Yarn的ResourceManager就相当于Spark Standalone模式下的Master

1,Spark on Yarn的两种运行模式:唯一的决定因素是当前Application从任务调度器Driver运行在什么地方!

a)       Cluster:Driver运行的Yarn集群下的某台机器上的JVM进程中!!!

b)       Client:Driver运行在当前提交程序的客户机器上,

需要说明的是:无论是什么模式,只要当前机器运行了Spark代码,就必须安装Spark!

2,Spark on Yarn的运行实战:

a)       Client模式:方便在命令终端直接看到运行的过程信息,尤其方便做测试使用,例如:./spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode client ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 50000

Spark天机解密:Standalone模式下启动Spark集群(也就是启动Master和Worker)其实启动的是资源管理器,真正作业计算的时候和集群资源管理器没有任何关系,所以Spark的Job真正执行作业的时候不是运行在你启动的Spark集群中的,而是运行在一个个JVM中的,只要在JVM所在的机器上安装配置了Spark即可!!!

3,Spark on Yarn模式下Driver和ApplicationMaster的关系;

a)       Cluster:Driver位于ApplicationMaster进程中,我们需要通过Hadoop默认指定的8088端口来通过Web控制台查看当前的Spark程序运行的信息,例如进度、资源的使用;

b)       Client:Driver为提交代码的机器上,此时ApplicationMaster依旧位于集群中且只负责资源的申请和launchExecutor,此时启动后的Eexcutor并不会向ApplicationMaster进程注册,而是想Driver注册!!!

三:最佳实践

         1,Spark on Yarn的模式下 Hadoop Yarn的配置yarn.nodemanager.local-dirs会覆盖Spark

  spark.local.dir!!!

         2,在实际生产环境下一般都是采用Cluster,我们会通过History Server来获取最终全部的运行信息;

         3,如果想直接看运行的日志信息,可以使用以下命令:yarn logs -applicationId

参考:https://blog.csdn.net/u013573813/article/details/69831344

猜你喜欢

转载自blog.csdn.net/DPnice/article/details/81904638