Spark SQL 快速入门系列(1) | Spark SQL 的简单介绍!

  大家好,我是不温卜火,是一名计算机学院大数据专业大二的学生,昵称来源于成语—不温不火,本意是希望自己性情温和。作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己所犯的错误希望能够帮助到很多和自己一样处于起步阶段的萌新。但由于水平有限,博客中难免会有一些错误出现,有纰漏之处恳请各位大佬不吝赐教!暂时只有csdn这一个平台,博客主页:https://buwenbuhuo.blog.csdn.net/

  此篇为大家带来的是Spark SQL 的简单介绍!
1


2
   先让我们来回顾一下Spark的内置模块。
3

一. 什么是 Spark SQL

   Spark SQL 是 Spark 用于结构化数据(structured data)处理的 Spark 模块.

   与基本的 Spark RDD API 不同, Spark SQL 的抽象数据类型为 Spark 提供了关于数据结构和正在执行的计算的更多信息.

   在内部, Spark SQL 使用这些额外的信息去做一些额外的优化.

   有多种方式与 Spark SQL 进行交互, 比如: SQL 和 Dataset API. 当计算结果的时候, 使用的是相同的执行引擎, 不依赖你正在使用哪种 API 或者语言.

   这种统一也就意味着开发者可以很容易在不同的 API 之间进行切换, 这些 API 提供了最自然的方式来表达给定的转换.

   我们已经学习了 Hive,它是将 Hive SQL 转换成 MapReduce 然后提交到集群上执行,大大简化了编写 MapReduc 的程序的复杂性,

   由于 MapReduce 这种计算模型执行效率比较慢, 所以 Spark SQL 的应运而生,它是将 Spark SQL 转换成 RDD,然后提交到集群执行,执行效率非常快!

扫描二维码关注公众号,回复: 11560035 查看本文章

Spark SQL 它提供了2个编程抽象, 类似 Spark Core 中的 RDD

  1. DataFrame
  2. DataSet

二. Spark SQL 的特点

  • 1. Integrated(易整合)

   无缝的整合了 SQL 查询和 Spark 编程.
4

  • 2. Uniform Data Access(统一的数据访问方式)

   使用相同的方式连接不同的数据源.
5

  • 3. Hive Integration(集成 Hive)

   在已有的仓库上直接运行 SQL 或者 HiveQL
6

  • 4. Standard Connectivity(标准的连接方式)

   通过 JDBC 或者 ODBC 来连接
7

三. 什么是 DataFrame

   与 RDD 类似,DataFrame 也是一个分布式数据容器。

   然而DataFrame更像传统数据库的二维表格,除了数据以外,还记录数据的结构信息,即schema

   同时,与Hive类似,DataFrame也支持嵌套数据类型(struct、array和map)。

   从 API 易用性的角度上看,DataFrame API提供的是一套高层的关系操作,比函数式的 RDD API 要更加友好,门槛更低。

8
   上图直观地体现了DataFrame和RDD的区别。

   左侧的RDD[Person]虽然以Person为类型参数,但Spark框架本身不了解Person类的内部结构。

   而右侧的DataFrame却提供了详细的结构信息,使得 Spark SQL 可以清楚地知道该数据集中包含哪些列,每列的名称和类型各是什么。

   DataFrame是为数据提供了Schema的视图。可以把它当做数据库中的一张表来对待,

   DataFrame也是懒执行的

   性能上比 RDD要高,主要原因: 优化的执行计划:查询计划通过Spark catalyst optimiser进行优化。比如下面一个例子:
9
   为了说明查询优化,我们来看上图展示的人口数据分析的示例。图中构造了两个DataFrame,将它们join之后又做了一次filter操作。

   如果原封不动地执行这个执行计划,最终的执行效率是不高的。因为join是一个代价较大的操作,也可能会产生一个较大的数据集。

   如果我们能将filter下推到 join下方,先对DataFrame进行过滤,再join过滤后的较小的结果集,便可以有效缩短执行时间。

   而Spark SQL的查询优化器正是这样做的。简而言之,逻辑查询计划优化就是一个利用基于关系代数的等价变换,将高成本的操作替换为低成本操作的过程。

10

四. 什么是 DataSet

  1. 是DataFrame API的一个扩展,是 SparkSQL 最新的数据抽象(1.6新增)。

  2. 用户友好的API风格,既具有类型安全检查也具有DataFrame的查询优化特性。

  3. Dataset支持编解码器,当需要访问非堆上的数据时可以避免反序列化整个对象,提高了效率。

  4. 样例类被用来在DataSet中定义数据的结构信息,样例类中每个属性的名称直接映射到DataSet中的字段名称。

  5. DataFrame是DataSet的特列,DataFrame=DataSet[Row] ,所以可以通过as方法将DataFrame转换为DataSet。Row是一个类型,跟Car、Person这些的类型一样,所有的表结构信息都用Row来表示。

  6. DataSet是强类型的。比如可以有DataSet[Car],DataSet[Person].

  7. DataFrame只是知道字段,但是不知道字段的类型,所以在执行这些操作的时候是没办法在编译的时候检查是否类型失败的,比如你可以对一个String进行减法操作,在执行的时候才报错,而DataSet不仅仅知道字段,而且知道字段类型,所以有更严格的错误检查。就跟JSON对象和类对象之间的类比。

  本次的分享就到这里了,


14

  好书不厌读百回,熟读课思子自知。而我想要成为全场最靓的仔,就必须坚持通过学习来获取更多知识,用知识改变命运,用博客见证成长,用行动证明我在努力。
  如果我的博客对你有帮助、如果你喜欢我的博客内容,请“点赞” “评论”“收藏”一键三连哦!听说点赞的人运气不会太差,每一天都会元气满满呦!如果实在要白嫖的话,那祝你开心每一天,欢迎常来我博客看看。
  码字不易,大家的支持就是我坚持下去的动力。点赞后不要忘了关注我哦!

15

16

猜你喜欢

转载自blog.csdn.net/qq_16146103/article/details/107834229