spark 开窗函数 topN

package com.spark.sparksql.save;


import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.DataFrame;
import org.apache.spark.sql.hive.HiveContext;


/*
 * 开窗函数
 */


public class RowNumberWindowFunction {


    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setAppName("RowNumberWindowFunction");
        JavaSparkContext sc = new JavaSparkContext(conf);
        HiveContext hiveContext = new HiveContext(sc.sc());


        // 创建销售额表,sales表
        hiveContext.sql("DROP TABLE IF EXISTS sales");
        hiveContext.sql("CREATE TABLE IF NOT EXISTS sales ("
                + "product STRING," + "category STRING," + "revenue BIGINT)");
        hiveContext.sql("LOAD DATA LOCAL INPATH '/usr/hadoopsoft/spark-1.6.0-bin-hadoop2.4/project/sales.txt' INTO TABLE sales");


        // 先说明一下,row_number()开窗函数,它的作用是什么?
        // 其实,就是给每个分组的数据,按照其排序顺序,打上一个分组内的行号!!!!
        // 比如说,有一个分组date=20160706,里面看有3数据,11211,11212,11213
        // 那么对这个分组的每一行使用row_number()开窗函数以后,这个三行会打上一个组内的行号!!!
        // 行号是从1开始递增!!! 比如最后结果就是 11211 1, 11212 2, 11213 3


        DataFrame top3SalesDF = hiveContext.sql("SELECT product, category, revenue "
                + "FROM ("
                + "SELECT "
                + "product, "
                + "category , "
                + "revenue, "
                + "row_number() OVER (PARTITION BY category ORDER BY revenue DESC) rank "
                + "FROM sales "
                + ") tmp_sales "
                + "WHERE rank <= 3");


        // 将每组排名前3的数据,保存到一个表中
        hiveContext.sql("DROP TABLE IF EXISTS top3_sales");
        top3SalesDF.saveAsTable("top3_sales");


        sc.close();
    }
}






猜你喜欢

转载自blog.csdn.net/seareal1/article/details/80324954