Spark经典案例之数据排序

业务场景:数据排序

1、”数据排序”是许多实际任务执行时要完成的第一项工作,
比如学生成绩评比、数据建立索引等。这个实例和数据去重类似,都是先对原始数据进行初步处理,为进一步的数据操作打好基础。
1)、需求描述
对输入文件中数据进行排序。输入文件中的每行内容均为一个数字,即一个数据。
要求在输出中每行有两个间隔的数字,其中,第一个代表原始数据在原始数据集中的位次,第二个代表原始数据。

2)输入文件
file1:
2
32
654
32
15
756
65223

file2:
5956
22
650
92

file3:
26
54
6

样例输出:
1 2
2 6
3 15
4 22
5 26
6 32
7 32
8 54
9 92
10 650
11 654
12 756
13 5956
14 65223

package ClassicCase

import org.apache.spark.{SparkConf, SparkContext}

/**
  * 业务场景:数据排序
  * Created by YJ on 2017/2/8.
  */


object case3 {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local").setAppName("reduce")
    val sc = new SparkContext(conf)
    sc.setLogLevel("ERROR")
    val three = sc.textFile("hdfs://192.168.109.130:8020//user/flume/ClassicCase/case3")
    var idx = 0

    //由入输入文件有多个,产生不同的分区,为了生产序号,使用HashPartitioner将中间的RDD归约到一起。
    import org.apache.spark.HashPartitioner

    val res = three.filter(_.trim().length>0)                    //清洗数据
               .map(num=>(num.trim.toInt,""))                    //转换数据
                  .partitionBy(new HashPartitioner(1))           //将所有数据放到一个分区
                      .sortByKey()                               //按自然顺序排序
                          .map(t => {                            //整理输出格式
                              idx += 1
                              (idx,t._1)}
                              ).collect.foreach(x =>  println(x._1 +"\t" + x._2) )

  }

}

输出结果:
1 2
2 6
3 15
4 22
5 26
6 32
7 32
8 54
9 92
10 650
11 654
12 756
13 5956
14 65223

猜你喜欢

转载自blog.csdn.net/zhang__rong/article/details/88355330