(三)Spark内存管理

        Spark 把 Executor 内存划分为 4 个区域,分别是 Reserved Memory、User Memory、Execution Memory 和 Storage Memory。通过调整 spark.executor.memory、spark.memory.fraction 和 spark.memory.storageFraction 这 3 个配置项,你可以灵活地调整不同内存区域的大小,从而去适配 Spark 作业对于内存的需求。

         再者,在统一内存管理模式下,Execution Memory (操作)与 Storage Memory (暂存)之间可以互相抢占,需要弄清楚二者之间的抢占逻辑。总结下来,内存的抢占逻辑有如下 3 条:

         如果对方的内存空间有空闲,双方可以互相抢占; 

         对于 Storage Memory 抢占的 Execution Memory 部分,当分布式任务有计算需要时,Storage Memory 必须立即归还抢占的内存,涉及的缓存数据要么落盘、要么清除;

         对于 Execution Memory 抢占的 Storage Memory 部分,即便 Storage Memory 有收回内存的需要,也必须要等到分布式任务执行完毕才能释放。

         最后,我们介绍了 RDD Cache 的基本用法,当一个 RDD 在代码中的引用次数大于 1 时,你可以考虑通过给 RDD 加 Cache 来提升作业性能。具体做法是在 RDD 之上调用 cache 或是 persist 函数。其中 persist (MEMORY_ONLY)更具备普适性,你可以通过指定存储级别来灵活地选择 Cache 的存储介质、存储形式以及副本数量,从而满足不同的业务需要。

猜你喜欢

转载自blog.csdn.net/someInNeed/article/details/121564359