Spark 并行计算模型:RDD

Spark 允许用户为driver(或主节点)编写运行在计算集群上,并行处理数据的程序。在Spark中,它使用RDDs代表大型的数据集,RDDs是一组不可变的分布式的对象的集合,存储在executors中(或从节点)。组成RDDs的对象称为partitions,并可能(但是也不是必须的)在分布式系统中不同的节点上进行计算。Spark cluster manager根据Spark application设置的参数配置,处理在集群中启动与分布Spark executors,用于计算,如下图:

猜你喜欢

转载自www.cnblogs.com/gfjhcfjh/p/12422161.html