Spark性能调优 Shuffle(二)

1.shuffle原理

什么样的情况下,会发生shuffle

spark中,主要是以下几个算子:groupByKeyreduceByKeycountByKeyjoin,等等。

什么是shuffle

groupByKey,要把分布在集群各个节点上的数据中的同一个key,对应的values,都给集中到一块儿,集中到集群中同一个节点上,更严密一点说,就是集中到一个节点的一个executor的一个task中。

然后呢,集中一个key对应的values之后,才能交给我们来进行处理,<key, Iterable<value>>reduceByKey,算子函数去对values集合进行reduce操作,最后变成一个valuecountByKey,需要在一个task中,获取到一个key对应的所有的value,然后进行计数,统计总共有多少个valuejoinRDD<key, value>RDD<key, value>,只要是两个RDD中,key相同对应的2value,都能到一个节点的executortask中,给我们进行处理。

       shuffle,一定是分为两个stage来完成的。因为这其实是个逆向的过程,不是stage决定shuffle,是shuffle决定stage

reduceByKey(_+_),在某个action触发job的时候,DAGScheduler,会负责划分job为多个stage。划分的依据,就是,如果发现有会触发shuffle操作的算子,比如reduceByKey,就将这个操作的前半部分,以及之前所有的RDDtransformation操作,划分为一个stageshuffle操作的后半部分,以及后面的,直到action为止的RDDtransformation操作,划分为另外一个stage

         每一个shuffle的前半部分stagetask,每个task都会创建下一个stagetask数量相同的文件,比如下一个stage会有100task,那么当前stage每个task都会创建100份文件;会将同一个key对应的values,一定是写入同一个文件中的;不同节点上的task,也一定会将同一个key对应的values,写入下一个stage,同一个task对应的文件中。

shuffle的后半部分stagetask,每个task都会从各个节点上的task写的属于自己的那一份文件中,拉取key, value对;然后task会有一个内存缓冲区,然后会用HashMap,进行key, values的汇聚;(key ,values)

task会用我们自己定义的聚合函数,比如reduceByKey(_+_),把所有values进行一对一的累加;聚合出来最终的值。就完成了shuffle

shuffle前半部分的task在写入数据到磁盘文件之前,都会先写入一个一个的内存缓冲,内存缓冲满溢之后,再spill溢写到磁盘文件中。

2.shuffle的map端的文件合并

2.1. 默认的这种shuffle行为,对性能有什么样的恶劣影响

实际生产环境的条件:

100个节点(每个节点一executor):100executor

每个executor2cpu core

总共1000task:每个executor平均10task

每个节点,10task,每个节点会输出多少份map端文件?10 * 1000=1万个文件

总共有多少份map端输出文件?100 * 10000 = 100万。

第一个stage,每个task,都会给第二个stage的每个task创建一份map端的输出文件

第二个stage,每个task,会到各个节点上面去,拉取第一个stage每个task输出的,属于自己的那一份文件。

所以shuffle中的写磁盘的操作,基本上就是shuffle中性能消耗最为严重的部分。

2.2.开启合并文件功能 

new SparkConf().set("spark.shuffle.consolidateFiles", "true")

开启shuffle map端输出文件合并的机制;默认情况下,是不开启的,就是会发生如上所述的大量map端输出文件的操作,严重影响性能。

3.Map端内存缓冲与reduce端内存占比调节

3.1.map端内存缓冲

默认情况下,shufflemap task,输出到磁盘文件的时候,统一都会先写入每个task自己关联的一个内存缓冲区。这个缓冲区大小,默认是32kb。每一次,当内存缓冲区满溢之后,才会进行spill操作,溢写操作,溢写到磁盘文件中去

3.2.reduce端内存占比

reducetask,在拉取到数据之后,会用hashmap的数据格式,来对各个key对应的values进行汇聚。针对每个key对应的values,执行我们自定义的聚合函数的代码,比如_ + _(把所有values累加起来)。reduce task,在进行汇聚、聚合等操作的时候,实际上,使用的就是自己对应的executor的内存,executorjvm进程,堆),默认executor内存中划分给reduce task进行聚合的比例,是0.2

问题来了,因为比例是0.2,所以,理论上,很有可能会出现,拉取过来的数据很多,那么在内存中,放不下;这个时候,默认的行为,就是说,将在内存放不下的数据,都spill(溢写)到磁盘文件中去。

3.3.调优

默认,map端内存缓冲是每个task32kb

默认,reduce端聚合内存比例,是0.2,也就是20%

如果map端的task,处理的数据量比较大,但是呢,你的内存缓冲大小是固定的。可能会出现什么样的情况?

每个task就处理320kb32kb,总共会向磁盘溢写320 / 32 = 10次。

每个task处理32000kb32kb,总共会向磁盘溢写32000 / 32 = 1000次。

       在map task处理的数据量比较大的情况下,而你的task的内存缓冲默认是比较小的,32kb。可能会造成多次的map端往磁盘文件的spill溢写操作,发生大量的磁盘IO,从而降低性能。

        reduce端聚合内存,占比。默认是0.2。如果数据量比较大,reduce task拉取过来的数据很多,那么就会频繁发生reduce端聚合内存不够用,频繁发生spill操作,溢写到磁盘上去。而且最要命的是,磁盘上溢写的数据量越大,后面在进行聚合操作的时候,很可能会多次读取磁盘中的数据,进行聚合。

       默认不调优,在数据量比较大的情况下,可能频繁地发生reduce端的磁盘文件的读写。

这两个点之所以放在一起讲,是因为他们俩是有关联的。数据量变大,map端肯定会出点问题;reduce端肯定也会出点问题;出的问题是一样的,都是磁盘IO频繁,变多,影响性能。

       调节map task内存缓冲:spark.shuffle.file.buffer,默认32k(spark 1.3.x不是这个参数,后面还有一个后缀,kbspark 1.5.x以后,变了,就是现在这个参数)

      调节reduce端聚合内存占比:spark.shuffle.memoryFraction,0.2

3.4. 在实际生产环境中,我们在什么时候来调节两个参数?

      看Spark UI,如果你的公司是决定采用standalone模式,那么狠简单,你的spark跑起来,会显示一个Spark UI的地址,4040的端口,进去看,依次点击进去,可以看到,你的每个stage的详情,有哪些executor,有哪些task,每个taskshuffle writeshuffle read的量,shuffle的磁盘和内存,读写的数据量;如果是用的yarn模式来提交,课程最前面,从yarn的界面进去,点击对应的application,进入Spark UI,查看详情。

如果发现shuffle 磁盘的writeread,很大。这个时候,就意味着最好调节一些shuffle的参数。进行调优。首先当然是考虑开启map端输出文件合并机制。

调节上面说的那两个参数。调节的时候的原则。spark.shuffle.file.buffer,每次扩大一倍,然后看看效果,64128;spark.shuffle.memoryFraction,每次提高0.1,看看效果。

 

不能调节的太大,太大了以后过犹不及,因为内存资源是有限的,你这里调节的太大了,其他环节的内存使用就会有问题了。

 

调节了以后,效果?map task内存缓冲变大了,减少spill到磁盘文件的次数;reduce端聚合内存变大了,减少spill到磁盘的次数,而且减少了后面聚合读取磁盘文件的数量。

4.HashShuffleManager与SortShuffleManager

之前我们所讲的,其实都是已经属于Spark中,比较老旧的一种shuffle managerHashShuffleManager;这种manager,实际上,从spark 1.2.x版本以后,就不再是默认的选择了。

HashShuffleManager的原理,以及对应的一些性能调优的点,基本上,之前几讲,咱们就都讲过了。

spark 1.2.x版本以后,默认的shuffle manager,是什么呢?SortShuffleManager

SortShuffleManagerHashShuffleManager两点不同:

1SortShuffleManager会对每个reduce task要处理的数据,进行排序(默认的)。

2SortShuffleManager会避免像HashShuffleManager那样,默认就去创建多份磁盘文件。一个task,只会写入一个磁盘文件,不同reduce task的数据,用offset来划分界定。之前讲解的一些调优的点,比如consolidateFiles机制、map端缓冲、reduce端内存占比。这些对任何shuffle manager都是有用的。

spark 1.5.x以后,对于shuffle manager又出来了一种新的managertungsten-sort(钨丝),钨丝sort shuffle manager。官网上一般说,钨丝sort shuffle manager,效果跟sort shuffle manager是差不多的。

但是,唯一的不同之处在于,钨丝manager,是使用了自己实现的一套内存管理机制,性能上有很大的提升, 而且可以避免shuffle过程中产生的大量的OOMGC,等等内存相关的异常。

5.reduce端缓冲大小调优

map端的task是不断的输出数据的,数据量可能是很大的。但是,其实reduce端的task,并不是等到maptask将属于自己的那份数据全部写入磁盘文件之后,再去拉取的。map端写一点数据,reduce端task就会拉取一小部分数据,立即进行后面的聚合、算子函数的应用。每次reduece能够拉取多少数据,就由buffer来决定。因为拉取过来的数据,都是先放在buffer中的。然后才用后面的executor分配的堆内存占比(0.2),hashmap,去进行后续的聚合、函数的执行。

5.1.调优

咱们假如说,你的Map端输出的数据量也不是特别大,然后你的整个application的资源也特别充足。200executor5cpu core10G内存。其实可以尝试去增加这个reduce端缓冲大小的,比如从48M,变成96M。那么这样的话,每次reduce task能够拉取的数据量就很大。需要拉取的次数也就变少了。比如原先需要拉取100次,现在只要拉取50次就可以执行完了。对网络传输性能开销的减少,以及reduce端聚合操作执行的次数的减少,都是有帮助的。最终达到的效果,就应该是性能上的一定程度上的提升。

一定要注意,资源足够的时候,再去做这个事儿。

 

 

猜你喜欢

转载自blog.csdn.net/yuxiang1014/article/details/85850928