60-150-046-使用-Sink-Flink落HDFS数据按事件时间分区解决方案

0x1 摘要

Hive离线数仓中为了查询分析方便,几乎所有表都会划分分区,最为常见的是按天分区,Flink通过以下配置把数据写入HDFS,

BucketingSink<Object> sink = new BucketingSink<>(path);
//通过这样的方式来实现数据跨天分区
sink.setBucketer(new DateTimeBucketer<>

猜你喜欢

转载自blog.csdn.net/qq_21383435/article/details/105277090
今日推荐