Java知识大全 - 十二、Java和大数据



Java 是大数据处理中使用最广泛的编程语言之一,因为它的性能、可扩展性和易用性。Java有几个库和框架为大数据处理提供支持,包括Apache Hadoop,Apache Spark,Apache Storm和Apache Flink。

Hadoop是一个开源框架,允许跨计算机集群对大型数据集进行分布式存储和处理。Java为Hadoop提供了一个API,用于使用MapReduce编程模型处理存储在Hadoop分布式文件系统(HDFS)中的数据。

Apache Spark 是一个开源数据处理引擎,用于执行大数据处理任务,例如批处理、流处理和机器学习。Spark 在 Java 中提供了一个 API,用于以分布式方式处理数据,使其成为大数据处理的绝佳选择。

Apache Storm是另一个开源的大数据处理引擎,用于大数据集的实时处理。Storm 提供了一个允许处理流数据的 Java API。

Apache Flink 是一个开源的数据处理框架,为实时流处理和批处理提供支持。Flink 有一个 Java API,支持以分布式方式处理大型数据集。

总体而言,Java为大数据处理提供了一个强大的环境,因为它能够在分布式系统上扩展并表现良好。

1. Hadoop 和 MapReduce

Hadoop是一个开源框架,用于大型数据集的分布式存储和处理。它提供了一个用于存储的分布式文件系统(HDFS)和一个用于处理数据的框架,称为MapReduce。

MapReduce是一种编程模型,用于在Hadoop集群中的大量节点上并行处理大型数据集。它旨在通过将计算分解为更小的独立任务并将其分布在大量节点上,以容错方式处理大量数据。

在MapReduce作业中,输入数据被分成小块,每个块由映射任务处理。映射任务提取相关数据,并为每条记录生成一个键值对。然后按键对键值对进行排序和分组,每个组由归约任务处理以产生最终输出。

Java通常用于在Hadoop中开发MapReduce应用程序。Hadoop MapReduce框架提供了用于在Java中编写MapReduce作业的API,包括Mapper和Reducer接口。

例:

下面是一个简单的Java中MapReduce程序的示例,该程序计算一组输入文件中每个单词的出现次数:

public class WordCount {
    
    

  public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
    
    
    private final static IntWritable one = new IntWritable(1);
    private Text word = new Text();

    public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    
    
      String line = value.toString();
      StringTokenizer tokenizer = new StringTokenizer(line);
      while (tokenizer.hasMoreTokens()) {
    
    
        word.set(tokenizer.nextToken());
        context.write(word, one);
      }
    }
  }

  public static class Reduce extends Reducer<Text, IntWritable, Text, IntWritable> {
    
    
    public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
    
    
      int sum = 0;
      for (IntWritable val : values) {
    
    
        sum += val.get();
      }
      context.write(key, new IntWritable(sum));
    }
  }

  public static void main(String[] args) throws Exception {
    
    
    Configuration conf = new Configuration();
    Job job = Job.getInstance(conf, "word count");
    job.setJarByClass(WordCount.class);
    job.setMapperClass(Map.class);
    job.setCombinerClass(Reduce.class);
    job.setReducerClass(Reduce.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);
    FileInputFormat.addInputPath(job, new Path(args[0]));
    FileOutputFormat.setOutputPath(job, new Path(args[1]));
    System.exit(job.waitForCompletion(true) ? 0 : 1);
  }
}

该程序读取一组输入文件,并计算文件中每个单词的出现次数。Map 类从输入中提取每个单词,并输出一个键值对,其中单词作为键,值为 1。Reduce类接收映射任务生成的键值对,并汇总每个键的值以生成最终输出。main 方法设置并运行 MapReduce 作业。


Hadoop和MapReduce通常用于大数据处理,它们有多种用例。例如,它们可用于处理日志文件以识别模式和异常,分析社交媒体数据以识别趋势,或处理传感器数据以实时监控和优化性能。

除了Hadoop和MapReduce之外,还有许多其他工具和框架通常用于Java中的大数据处理。其中包括Apache Spark,Apache Flink,Apache Beam和Apache Storm等。这些框架提供了一种实时或近乎实时处理大型数据集的方法,并且它们提供了多种数据处理和分析功能。

Apache Beam 是一个统一的编程模型,可以与各种分布式处理后端一起使用,包括 Apache Flink、Apache Spark 和 Google Cloud Dataflow,Apache Storm 是一个分布式流处理系统,它为处理实时数据馈送提供支持。

这些框架提供了一种在分布式环境中处理大型数据集的方法,它们为数据处理、分析和机器学习提供了多种功能。它们在行业中广泛用于大数据处理,是开发人员在 Java 中处理大型数据集的必备工具。

2. Apache Spark

Apache Spark是一个开源的分布式计算系统,用于处理大型数据集。它被设计为比Hadoop的MapReduce更快,更灵活,使其非常适合大数据处理和分析。Spark 提供了一个统一的 API 来处理不同的数据源,并支持多种编程语言,包括 Java。

Spark 是围绕集群计算模型构建的,该模型允许它跨多台计算机横向扩展计算。它包括几个核心组件,包括为分布式计算提供基本功能的Spark Core;Spark SQL,它提供了一个用于处理结构化数据的SQL接口 和 Spark Streaming支持数据流的实时处理。

Spark的一个关键特性是它能够在内存中缓存数据,从而可以更快地处理经常访问的数据集。Spark 还包括机器学习库,可用于使用大型数据集构建和训练预测模型。

下面是在 Java 中使用 Spark 计算文本文件中每个单词的出现次数的示例:


// create a SparkConf object
SparkConf conf = new SparkConf().setAppName("Word Count");

// create a JavaSparkContext object
JavaSparkContext sc = new JavaSparkContext(conf);

// read in a text file as an RDD of strings
JavaRDD<String> lines = sc.textFile("path/to/text/file");

// split each line into words and flatten the results
JavaRDD<String> words = lines.flatMap(line -> Arrays.asList(line.split(" ")).iterator());

// map each word to a tuple containing the word and a count of 1
JavaPairRDD<String, Integer> wordCounts = words.mapToPair(word -> new Tuple2<>(word, 1));

// reduce by key to sum the counts for each word
JavaPairRDD<String, Integer> counts = wordCounts.reduceByKey((a, b) -> a + b);

// output the results
counts.foreach(pair -> System.out.println(pair._1() + ": " + pair._2()));



Apache Spark是一个开源的分布式计算系统,用于处理大量数据。Spark 在 Java、Scala 和 Python 中提供了简单的编程模型和高级 API,使开发并行应用程序变得容易。与Hadoop相比,Spark提供了几个优势,包括更快的处理时间,内存数据存储和实时流功能。

Spark 使用称为弹性分布式数据集 (RDD) 的概念,它是可以跨计算机集群并行处理的容错数据集合。RDD允许Spark自动从故障中恢复,使其成为大规模数据处理的可靠和强大的系统。

Spark 最常见的用例之一是数据处理和分析。例如,公司可以使用 Spark 实时处理大量客户数据,以深入了解客户行为和偏好。Spark的另一个用例是机器学习,它可用于训练和测试大型数据集以构建预测模型。

下面是使用 Spark 处理大型推文数据集的示例:

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;

public class TweetProcessor {
    
    

    public static void main(String[] args) {
    
    
        // Create Spark configuration
        SparkConf conf = new SparkConf()
                .setAppName("TweetProcessor")
                .setMaster("local[*]");

        // Create Spark context
        JavaSparkContext sc = new JavaSparkContext(conf);

        // Create Spark session
        SparkSession spark = SparkSession
                .builder()
                .appName("TweetProcessor")
                .getOrCreate();

        // Load tweets dataset from HDFS
        String tweetsPath = "hdfs://localhost:9000/tweets/*";
        JavaRDD<String> tweets = sc.textFile(tweetsPath);

        // Convert tweets to Spark SQL dataset
        Dataset<Row> tweetsDS = spark.read().json(tweets);

        // Register dataset as a temporary view
        tweetsDS.createOrReplaceTempView("tweets");

        // Query the dataset to find the most popular hashtags
        Dataset<Row> hashtags = spark.sql("SELECT entities.hashtags.text AS hashtag, COUNT(*) AS count " +
                "FROM tweets " +
                "WHERE entities.hashtags IS NOT NULL " +
                "GROUP BY entities.hashtags.text " +
                "ORDER BY count DESC " +
                "LIMIT 10");

        // Show the results
        hashtags.show();

        // Stop Spark context
        sc.stop();
    }
}

此示例从 HDFS 加载推文数据集,将其转换为 Spark SQL 数据集,然后查询数据集以查找最流行的主题标签。它使用 Spark 的 SQL 功能对数据集运行 SQL 查询,并返回前 10 个主题标签及其计数。该示例使用 SparkConf 和 JavaSparkContext 类创建 Spark 上下文,并使用SparkSession类创建 Spark 会话。最后,它会在处理完成时停止 Spark 上下文。

Spark 提供了多个用于处理数据的 API,包括 SQL、DataFrame 和 Datasets。Spark SQL API允许对存储在Spark中的数据执行SQL查询,而DataFrames和Datasets则提供了用于处理数据的更具编程性的API。

Spark的主要优势之一是它能够执行迭代算法,这些算法通常用于机器学习。Spark 的 MLlib 库提供了一系列机器学习算法,包括分类、回归、聚类和协同过滤。

下面是使用 Spark 处理客户事务的大型数据集的示例:

// Load data from HDFS
JavaRDD<String> input = sc.textFile("hdfs://path/to/data");

// Parse each line of input into a Transaction object
JavaRDD<Transaction> transactions = input.map(Transaction::parse);

// Group transactions by customer ID
JavaPairRDD<Integer, Iterable<Transaction>> customerTransactions = transactions.groupBy(Transaction::getCustomerId);

// Compute total spent by each customer
JavaPairRDD<Integer, Double> customerSpend = customerTransactions.mapValues(transactions -> {
    
    
  double totalSpend = 0.0;
  for (Transaction t : transactions) {
    
    
    totalSpend += t.getAmount();
  }
  return totalSpend;
});

// Save results to HDFS
customerSpend.saveAsTextFile("hdfs://path/to/results");

此代码使用 Spark 从 HDFS 读取客户交易数据集,按客户 ID 对交易进行分组,计算每个客户花费的总金额,并将结果保存到 HDFS。

3. 基于 Java 的大数据框架和库

Java拥有庞大的大数据框架和库生态系统,使开发人员能够处理和分析大量数据。一些流行的包括:

  • Apache Flink:Flink 是一个开源的流处理框架,可以实时处理大量数据。

  • Apache Storm:Storm是一个实时计算系统,可以处理大量数据。

  • Apache Kafka:Kafka是一个分布式流平台,可用于构建实时数据管道和流应用程序。

  • Apache NiFi:NiFi是一个数据流管理系统,可用于数据摄取,转换和交付。

  • Apache Beam:Beam是一个开源的统一编程模型,可用于批处理和流处理。

  • Apache HBase:HBase是一个分布式的、面向列的NoSQL数据库,可用于对大型数据集进行实时读/写访问。

  • Apache Cassandra:Cassandra是一个分布式NoSQL数据库,可用于对大型数据集进行高速读/写访问。

  • Apache Lucene:Lucene是一个全文搜索库,可用于索引和搜索大量文本数据。

这些只是Java生态系统中可用的大数据框架和库的几个例子。它们为开发人员提供了处理大型数据集和构建强大的数据处理和分析应用程序所需的工具和 API。


这里有一个使用Apache Spark的例子,Apache Spark是Java中流行的大数据处理框架:

假设我们有一个大型的客户交易数据集,我们希望对其进行分析以确定支出最高的客户。我们可以使用 Apache Spark 并行处理这些数据,并快速确定所需的结果。

首先,我们需要通过在项目中包含必要的依赖项来设置 Spark 环境。我们可以使用像Maven或Gradle这样的构建工具来管理我们的依赖项。例如,在Maven中,我们可以在pom.xml文件中包含以下依赖项:

<dependencies>
  <dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.11</artifactId>
    <version>2.4.8</version>
  </dependency>
  <dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.11</artifactId>
    <version>2.4.8</version>
  </dependency>
  <dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-streaming_2.11</artifactId>
    <version>2.4.8</version>
  </dependency>
</dependencies>

接下来,我们可以用 Java 编写 Spark 应用程序代码。下面是一个示例:

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;

public class TopCustomers {
    
    

    public static void main(String[] args) {
    
    
        // Set up Spark configuration
        SparkConf conf = new SparkConf()
                .setAppName("TopCustomers")
                .setMaster("local[*]");
        JavaSparkContext sc = new JavaSparkContext(conf);

        // Load transaction data from file
        JavaRDD<String> transactions = sc.textFile("transactions.csv");

        // Parse transaction data and convert to Spark SQL Dataset
        SparkSession spark = SparkSession.builder().appName("TopCustomers").getOrCreate();
        Dataset<Row> data = spark.read().option("header", true).csv(transactions);

        // Group transactions by customer ID and sum the total spending
        Dataset<Row> spendingByCustomer = data.groupBy("customer_id")
                .sum("transaction_amount")
                .orderBy(org.apache.spark.sql.functions.desc("sum(transaction_amount)"));

        // Show the top 10 spenders
        spendingByCustomer.show(10);
    }
}

在此示例中,我们首先使用 SparkConf 和 JavaSparkContext 类创建 Spark 上下文,然后,我们从CSV文件加载交易数据并将其解析为Spark SQL DataSet,并使用SparkSession类创建 Spark 会话。接着,我们按客户 ID 对交易进行分组,并分别使用 groupBy 和 sum 函数对总支出求和。最后,我们按总支出的降序对结果进行排序,并显示使用show函数的前 10 名消费者。

这只是一个简单的例子,但它展示了我们如何在Java中使用Apache Spark来有效地处理大量数据并提取有用的信息。


这里有一些关于基于 Java 的大数据框架和库的更多详细信息,以及一个示例:

  • Apache Storm:一个分布式实时计算系统,可以实时处理大量数据。它用于处理连续的数据流,并且可以与各种数据源集成。
    示例:Storm 可用于社交媒体监控应用程序,该应用程序分析推文、对其进行分类并实时计算每条推文的情绪。

  • Apache Flink:一个分布式流和批处理框架,可以实时处理大量数据。它用于处理数据流,并支持多个数据源和数据接收器。
    示例:Flink 可用于实时处理用户行为数据,例如点击、观看和购买,以生成见解和个性化推荐。

  • Apache Cassandra:一个分布式NoSQL数据库,可以存储大量的结构化和非结构化数据。它用于存储和检索具有高可用性和可伸缩性的数据。
    示例:Cassandra 可用于存储和检索用户配置文件数据(如姓名、电子邮件和地址)的 Web 应用程序,具有高可用性和可扩展性。

  • Apache HBase:分布式NoSQL数据库,可以存储大量结构化数据。它用于存储和检索具有高性能和可扩展性的大规模结构化数据。
    示例:HBase 可用于存储和检索电子商务应用程序的产品目录数据,例如产品名称、描述、价格和库存级别,具有高性能和可扩展性。

  • Apache Kafka:一个分布式流媒体平台,可以处理大量的数据流。它用于处理来自多个来源的实时数据流,并且可以与各种数据处理工具集成。
    示例:Kafka 可用于实时处理和分析金融市场数据,例如股票价格和交易量,以生成见解并做出交易决策。

这些只是许多可用的基于 Java 的大数据框架和库中的几个示例。




以下是如何使用Hadoop,MapReduce,HDFS,Spark,Storm,Flink,Cassandra和HBase一起处理和存储大数据的示例:

假设我们有一个包含有关销售交易信息的大型数据集,并且我们要执行以下任务:

  • 筛选出在特定日期之前发生的所有交易。
  • 按产品和区域汇总销售额。
  • 查找每个地区最畅销的产品。
  • 将结果存储在 Cassandra 和 HBase 中。

我们将使用以下技术来完成这些任务:

  • Hadoop:用于使用HDFS和MapReduce进行分布式文件存储和处理。
  • Spark:用于内存数据处理和分析。
  • Storm:用于实时数据流。
  • Flink:用于流处理。
  • Cassandra:用于存储和查询数据。
  • HBase:用于存储和查询数据。

首先,假设有一个存储在HDFS中的销售交易数据集,使用Hadoop MapReduce来过滤掉在特定日期之前发生的所有事务。我们将编写一个 MapReduce 作业,该作业将销售交易作为输入并过滤掉特定日期之前的交易。

下面是Map映射器和Reduce规约的代码:

Map映射:

public class FilterMapper extends Mapper<LongWritable, Text, Text, NullWritable> {
    
    
    
    private Text outputKey = new Text();
    private NullWritable outputValue = NullWritable.get();
    private SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd");
    private Date filterDate;
    
    public void setup(Context context) throws IOException, InterruptedException {
    
    
        Configuration conf = context.getConfiguration();
        String dateString = conf.get("filter.date");
        try {
    
    
            filterDate = dateFormat.parse(dateString);
        } catch (ParseException e) {
    
    
            throw new InterruptedException("Invalid date format: " + dateString);
        }
    }
    
    public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    
    
        String[] fields = value.toString().split(",");
        String dateString = fields[0];
        try {
    
    
            Date date = dateFormat.parse(dateString);
            if (date.after(filterDate)) {
    
    
                outputKey.set(value);
                context.write(outputKey, outputValue);
            }
        } catch (ParseException e) {
    
    
            // Ignore invalid date format
        }
    }
}

Reduce规约:

public class FilterReducer extends Reducer<Text, NullWritable, Text, NullWritable> {
    
    
    
    private NullWritable outputValue = NullWritable.get();
    
    public void reduce(Text key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {
    
    
        context.write(key, outputValue);
    }
}

然后,我们可以使用 Hadoop 命令行工具运行此 MapReduce 作业,将过滤日期作为参数传递:

hadoop jar filter.jar FilterJob -D filter.date=2022-01-01 /input /output

接下来,我们要使用 Spark 按产品和区域汇总销售额,使用 Spark 从 HDFS 读取过滤的销售交易,并计算每个产品和区域的总销售额。

下面是 Spark 作业的代码:

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
import org.apache.spark.sql.functions;

public class SalesSummaryJob {
    
    
    
    public static void main(String[] args) {
    
    
        SparkConf conf = new SparkConf().setAppName("Sales Summary Job");
        JavaSparkContext sc = new JavaSparkContext(conf);
        SparkSession spark = SparkSession.builder().appName("Sales Summary Job").getOrCreate();
        
        Dataset<Row> sales = spark.read().csv("hdfs:///output/part-*");
        sales = sales.selectExpr("_c1 as product", "_c2 as region", "_c3 as amount");
        sales = sales.groupBy("product", "region").agg(functions.sum("amount").as("total_sales"));
        sales.show();
        
        spark.stop();
    }
}

然后,我们可以使用 spark-submit 命令运行此 Spark 作业:

spark-submit --class SalesSummaryJob --master yarn --deploy-mode client sales.jar

现在我们有了销售摘要数据,希望查找每个区域中最畅销的产品。我们将使用 Storm 以流的形式读取销售摘要数据,并查找每个区域的最畅销产品。

下面是 Storm Topology的代码:

public class TopSellingProductsTopology {
    
    
    
    public static void main(String[] args) throws Exception {
    
    
        TopologyBuilder builder = new TopologyBuilder();
        
        builder.setSpout("sales-spout", new SalesSummarySpout());
        
        builder.setBolt("region-bolt", new RegionBolt())
            .shuffleGrouping("sales-spout");
            
        builder.setBolt("product-bolt", new ProductBolt())
            .fieldsGrouping("region-bolt", new Fields("region"));
            
        builder.setBolt("top-bolt", new TopProductsBolt())
            .fieldsGrouping("product-bolt", new Fields("region", "product"));
            
        Config conf = new Config();
        conf.setDebug(true);
        
        LocalCluster cluster = new LocalCluster();
        cluster.submitTopology("top-selling-products", conf, builder.createTopology());
        
        Thread.sleep(10000);
        
        cluster.killTopology("top-selling-products");
        cluster.shutdown();
    }
}

然后,我们可以使用以下命令在本地运行此 Storm 拓扑:

storm jar top.jar TopSellingProductsTopology

最后,我们希望将结果存储在Cassandra和HBase中 ,使用 Flink 从 HDFS 读取销售摘要数据,并将结果写入 Cassandra 和 HBase。

以下是 Flink 作业的代码:

import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.java.DataSet;
import org.apache.flink.api.java.ExecutionEnvironment;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.api.java.tuple.Tuple4;
import org.apache.flink.api.java.utils.ParameterTool;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.cassandra.CassandraSink;
import org.apache.flink.streaming.connectors.cassandra.ClusterBuilder;
import org.apache.flink.streaming.connectors.hbase.HBaseSink;
import org.apache.flink.streaming.connectors.hbase.HBaseTableDescriptor;
import org.apache.flink.streaming.connectors.hbase.HBaseTestingCluster;
import org.apache.flink.streaming.connectors.hbase.HBaseTestingClusterSchema;
import org.apache.flink.streaming.connectors.hbase.HBaseTestingSinkFunction;

import com.datastax.driver.core.Cluster;
import com.datastax.driver.core.Cluster.Builder;
import com.datastax.driver.core.Session;
import com.datastax.driver.mapping.Mapper;
import com.datastax.driver.mapping.MappingManager;

import java.util.ArrayList;
import java.util.List;

public class SalesProcessingJob {
    
    

    public static void main(String[] args) throws Exception {
    
    

        // set up the execution environment
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);

        // define the input data source
        DataStream<String> sales = env.readTextFile("hdfs://localhost:9000/sales.csv");

        // parse the input data and filter out transactions before a certain date
        DataStream<Sale> filteredSales = sales
                .map(new SaleParser())
                .filter(new DateFilter());

        // summarize sales by product and region
        DataStream<Tuple3<String, String, Double>> productSales = filteredSales
                .keyBy(sale -> Tuple2.of(sale.getProduct(), sale.getRegion()))
                .window(TumblingEventTimeWindows.of(Time.days(1)))
                .reduce(new SaleAggregator());

        // find the best-selling products in each region
        DataStream<Tuple4<String, String, Double, Double>> bestSellingProducts = productSales
                .keyBy(1)
                .window(TumblingEventTimeWindows.of(Time.days(7)))
                .apply(new BestSellingProducts());

        // write the results to Cassandra and HBase
        CassandraSink.addSink(bestSellingProducts)
                .setClusterBuilder(new ClusterBuilder() {
    
    
                    @Override
                    protected Cluster buildCluster(Cluster.Builder builder) {
    
    
                        return builder.addContactPoint("127.0.0.1").build();
                    }
                })
                .build();

        HBaseSink<Tuple4<String, String, Double, Double>> hbaseSink = new HBaseSink<>(new HBaseTestingCluster(), new HBaseTestingSinkFunction());

        HBaseTableDescriptor hbaseTableDescriptor = new HBaseTableDescriptor();
        hbaseTableDescriptor.addColumn("product", "region");
        hbaseTableDescriptor.addColumn("product", "sales");

        hbaseSink.configure(hbaseTableDescriptor);

        env.addSink(hbaseSink);

        env.execute();
    }

    private static class SaleParser implements MapFunction<String, Sale> {
    
    

        @Override
        public Sale map(String value) throws Exception {
    
    
            String[] fields = value.split(",");
            return new Sale(
                    fields[0], // timestamp
                    fields[1], // region
                    fields[2], // product
                    Double.parseDouble(fields[3]), // price
                    Integer.parseInt(fields[4]) // quantity
            );
        }
    }

    private static class DateFilter implements FilterFunction<Sale> {
    
    

        @Override
        public boolean filter(Sale sale) throws Exception {
    
    
            return sale.getTimestamp().compareTo("2022-01-01") >= 0;
        }
    }

    private static class SaleAggregator implements ReduceFunction<Sale> {
    
    

        @Override
        public Sale reduce(Sale sale1, Sale sale2) throws Exception {
    
    
            return new Sale(
                    sale1.getTimestamp(),
                    sale1.getRegion(),
                    sale1.getProduct(),
                    sale1.getPrice() + sale2.getPrice(),
                    sale1.getQuantity() + sale2.getQuantity()
            );
        }
    }

    private static class BestSellingProducts extends RichWindowFunction<Tuple3<String, String, Double>, Tuple4<String, String, Double, Double>, Tuple, TimeWindow> {
    
    

        private transient MapState<String, Double> salesByProduct;

        @Override
        public void open(Configuration parameters) throws Exception {
    
    
            super.open(parameters);
            MapStateDescriptor<String, Double> descriptor = new MapStateDescriptor<>("salesByProduct", String.class, Double.class);
            salesByProduct = getRuntimeContext().        getMapState(descriptor);
    }

    @Override
    public void apply(Tuple key, TimeWindow window, Iterable<Tuple3<String, String, Double>> sales, Collector<Tuple4<String, String, Double, Double>> out) throws Exception {
    
    
        salesByProduct.clear();
        for (Tuple3<String, String, Double> sale : sales) {
    
    
            String product = sale.f0;
            Double salesAmount = sale.f2;
            if (!salesByProduct.contains(product)) {
    
    
                salesByProduct.put(product, salesAmount);
            } else {
    
    
                salesByProduct.put(product, salesByProduct.get(product) + salesAmount);
            }
        }
        for (String product : salesByProduct.keys()) {
    
    
            Double salesAmount = salesByProduct.get(product);
            out.collect(Tuple4.of(product, key.getField(1), salesAmount, (salesAmount / window.getEnd())));
        }
    }
}
        getMapState(descriptor);
    }

    @Override
    public void apply(Tuple key, TimeWindow window, Iterable<Tuple3<String, String, Double>> sales, Collector<Tuple4<String, String, Double, Double>> out) throws Exception {
    
    
        salesByProduct.clear();
        for (Tuple3<String, String, Double> sale : sales) {
    
    
            String product = sale.f0;
            Double salesAmount = sale.f2;
            if (!salesByProduct.contains(product)) {
    
    
                salesByProduct.put(product, salesAmount);
            } else {
    
    
                salesByProduct.put(product, salesByProduct.get(product) + salesAmount);
            }
        }
        for (String product : salesByProduct.keys()) {
    
    
            Double salesAmount = salesByProduct.get(product);
            out.collect(Tuple4.of(product, key.getField(1), salesAmount, (salesAmount / window.getEnd())));
        }
    }
}

在这段代码中,我们首先搭建了Flink的执行环境,并指定了我们要使用事件时间作为时间特征。 然后我们将输入数据源定义为包含销售交易的文本文件。

我们使用 SaleParser 来解析输入数据并创建 Sale 对象,并使用 DateFilter 来过滤掉特定日期之前发生的交易。

然后,我们使用“SaleAggregator”按产品和地区汇总销售额,并使用“BestSellingProducts”函数查找每个地区最畅销的产品。 BestSellingProducts 函数使用 MapState 来跟踪每个区域内产品的销售情况。

最后,我们使用 CassandraSink 和 HBaseSink 类将结果写入 Cassandra 和 HBase,将 HBaseSink 配置为使用自定义的 HBaseTableDescriptor,它指定数据的列族和列名。




下面是一个 Storm 和 Flink 来处理数据的示例:

假设我们有来自社交媒体平台的数据流,其中包括用户发布的帖子。我们希望使用 Storm 和 Flink 实时分析这些数据。以下是我们的做法:

  • 首先设置一个 Kafka 集群来摄取数据,将 Kafka 配置为将数据写入 HDFS 进行存储。

  • 设置一个Storm集群来处理数据,使用 Kafka Spout 从 Kafka 集群读取数据并将其发送到 Bolt 进行处理。Bolt将实时分析数据,寻找关键字和情绪分析,然后将分析的数据写入Cassandra。

  • 设置一个 Flink 集群来处理数据,使用 Flink Hadoop 文件输入格式从 HDFS 读取数据,然后执行进一步的分析,例如聚类和机器学习,然后将分析的数据写入 HBase 进行查询。

下面是使用 Storm 和 Flink 的示例代码:

// Storm topology
TopologyBuilder builder = new TopologyBuilder();

// Kafka Spout
KafkaSpout kafkaSpout = new KafkaSpout(kafkaSpoutConfig);
builder.setSpout("kafkaSpout", kafkaSpout);

// Bolt for real-time analysis
RealtimeAnalysisBolt realtimeAnalysisBolt = new RealtimeAnalysisBolt();
builder.setBolt("realtimeAnalysisBolt", realtimeAnalysisBolt).shuffleGrouping("kafkaSpout");

// Cassandra Bolt for writing analyzed data
CassandraBolt cassandraBolt = new CassandraBolt(cassandraClusterConfig, cassandraWriteConfig);
builder.setBolt("cassandraBolt", cassandraBolt).shuffleGrouping("realtimeAnalysisBolt");

// Submit topology to Storm cluster
Config stormConfig = new Config();
StormSubmitter.submitTopology("my-topology", stormConfig, builder.createTopology());

// Flink job
final ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();

// Hadoop File Input Format
TextInputFormat inputFormat = new TextInputFormat(new Path("hdfs://namenode/user/data"));

// Read data from HDFS
DataSet<String> data = env.createInput(inputFormat).map(new MapFunction<String, String>() {
    
    
    @Override
    public String map(String value) {
    
    
        return value;
    }
});

// Flink analysis
FlinkAnalysis flinkAnalysis = new FlinkAnalysis();
DataSet<String> analyzedData = data.map(flinkAnalysis);

// Write analyzed data to HBase
HBaseOutputFormat hBaseOutputFormat = new HBaseOutputFormat(hBaseConfiguration);
hBaseOutputFormat.configure(hBaseConfiguration);

analyzedData.output(hBaseOutputFormat);

env.execute("my-job");

这个例子演示了如何将 Storm 和 Flink 一起使用,以实时和批量的方式分析数据。数据由Kafka摄取,存储在HDFS中,由Storm分析,并写入Cassandra。然后,Flink 从 HDFS 读取相同的数据,进行分析并写入 HBase。

猜你喜欢

转载自blog.csdn.net/LegendaryChen/article/details/129082758