SPARK 组成模块

  • Spark Core

    • 实现了Spark的基本功能,包含任务调度、内存管理、错误恢复、与存储系统交互等模块。Spark Core中还包含了对弹性分布式数据集(Resilient Distributed DataSet,简称RDD)的API定义

  • Spark SQL

    • 是Spark用来操作结构化数据的程序包。通过Spark SQL,我们可以使用 SQL或者Hive SQL来查询数据。Spark SQL支持多种数据源,比如Hive表、Parquet以及JSON等

  • Spark Streaming

    • 是Spark提供的对实时数据进行流式计算的组件。提供了用来操作数据流的API,并且与Spark Core中的 RDD API高度对应

  • Spark MLlib

    • 提供常见的机器学习(ML)功能的程序库。包括分类、回归、聚类、协同过滤等,还提供了模型评估、数据 导入等额外的支持功能

  • 集群管理器

    • Spark 设计为可以高效地在一个计算节点到数千个计算节点之间伸缩计 算。为了实现这样的要求,同时获得最大灵活性,Spark支持在各种集群管理器(Cluster Manager)上运行,包括Hadoop YARN、Apache Mesos,以及Spark自带的一个简易调度 器,叫作独立调度器(Standalone)

猜你喜欢

转载自www.cnblogs.com/xiangyuguan/p/11429650.html
今日推荐