Spark深入解析(六):SparkCore之Spark代码编写WordCount

WordCount思路

准备数据

将数据放在以下目录中
在这里插入图片描述

  • 1.txt

     Hello World
     Hello Scala
    
  • 2.txt

     Hello Spark
    

图解分析
在这里插入图片描述
说明:

  • 1、本地读取两个文件
  • 2、两个文件内的数据
  • 3、将文件内的数据进行扁平化
  • 4、将相同单词进行分组
  • 5、聚合计算每个单词的个数

WordCount代码实现

第一步:启动Spark-Shell

//进入spark
[root@node01 softwares]# cd ../servers/spark-2.2.0-bin-2.6.0-cdh5.14.0
//进入bin目录
[root@node01 spark-2.2.0-bin-2.6.0-cdh5.14.0]# cd bin/
//启动本地Spark-shell
[root@node01 bin]# ./spark-shell

看到以下界面,说明启动成功
在这里插入图片描述
第二步:读取文件
在这里插入图片描述
此处为什么可以直接将input路径输入,而不需要输入具体数据文件路径???

  • 在Spark-Shell开启后,系统自带将SparkContext(上下文对象)创建,而input文件夹,在spark中,使用sc刚好可以读取到(这是一个相对路径)文件数据,所以不需要具体到数据文件。

转换图解:与上图对比
在这里插入图片描述

//读取数据(textFile)
scala> val textFile=sc.textFile("input")
//读取文件,得到String类型的字符串(RDD)
textFile: org.apache.spark.rdd.RDD[String] = input MapPartitionsRDD[1] at textFile at <console>:24

//扁平化数据(flatMap)
scala> sc.textFile("input").flatMap
def flatMap[U](f: String => TraversableOnce[U])(implicit evidence$4: scala.reflect.ClassTag[U]): org.apache.spark.rdd.RDD[U]

//将数据结构转换(map)
scala> sc.textFile("input").flatMap(_.split(" ")).map((_,1))

//使用算子计算单词个数(reduceByKey)
scala> sc.textFile("input").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
res3: org.apache.spark.rdd.RDD[(String, Int)] = ShuffledRDD[16] at reduceByKey at <console>:25

//调用collect查询结果
scala> res3.collect
res4: Array[(String, Int)] = Array((Spark,1), (World,1), (Scala,1), (Hello,3))
发布了77 篇原创文章 · 获赞 16 · 访问量 9万+

猜你喜欢

转载自blog.csdn.net/wzc8961661/article/details/105741126
今日推荐