【Flink】关于Flink:Flink-SortShuffle-实现简介

在这里插入图片描述

1.概述

转载:关于Flink:Flink-SortShuffle-实现简介

Flink 作为批流一体的大数据计算引擎,大规模批数据处理也是 Flink 数据处理能力的重要组成部分。随着 Flink 的版本迭代,其批数据处理能力也在一直加强,sort-shuffle 的引入,使得 Flink 在应答大规模批数据处理工作时更加熟能生巧。

2.数据 Shuffle 简介

数据 shuffle 是批数据处理作业的一个重要阶段,在这一阶段中,上游解决节点的输入数据会被长久化到内部存储中,之后上游的计算节点会读取这些数据并进行解决。这些长久化的数据不仅仅是一种计算节点间的数据交换模式,还在谬误复原中施展着重要作用。

目前,有两种批数据 shuffle 模型被现有的大规模分布式计算零碎采纳,别离是基于 hash 的形式以及基于 sort 的形式:

  1. 基于 hash 形式的外围思路是将发送给上游不同并发生产工作的数据写到独自的文件中,这样文件自身就成了一个天然的辨别不同数据分区的边界;

  2. 基于 sort 形式的外围思路是先将所有分区的数据写在一起,而后通过 sort 来辨别不同数据分区的边界。

咱们在 Flink 1.12 版本将基于 sort 的批处理 shuffle 实现引入了 Flink 并在后续进行了继续的性能与稳定性优化;到 Flink 1.13 版本,sort-shuffle 曾经实现生产可用。

3.引入 Sort-Shuffle 的意义

咱们之所以要在 Flink 中引入 sort-shuffle 的实现,一个重要的起因是 Flink 本来的基于 hash 的实现对大规模批作业不可用。这个也是被现有的其余大规模分布式计算零碎所证实的:

  1. 稳定性方面:对于高并发批作业,基于 hash 的实现会产生大量的文件,并且会对这些文件进行并发读写,这会耗费很多资源并对文件系统会产生较大的压力。文件系统须要保护大量的文件元数据,会产生文件句柄以及 inode 耗尽等不稳固危险。
  2. 性能方面:对于高并发批作业,并发读写大量的文件意味着大量的随机 IO,并且每次 IO 理论读写的数据量可能是非常少的,这对于 IO 性能是一个微小的挑战,在机械硬盘上,这使得数据 shuffle 很容易成为批处理作业的性能瓶颈。

通过引入基于 sort 的批数据 shuffle 实现,并发读写的文件数量能够大大降低,有利于实现更好的数据程序读写,从而可能进步 Flink 大规模批处理作业的稳定性与性能。除此之外,新的 sort-shuffle 实现还能够减小内存缓冲区的耗费。对于基于 hash 的实现,每个数据分区都须要一块读写缓冲区,内存缓冲区耗费和并发成正比。而基于 sort 的实现则能够做到内存缓冲区耗费和作业并发解耦(只管更大的内存可能会带来更高的性能)。

更为重要的一点是咱们实现了新的存储构造与读写 IO 优化,这使得 Flink 的批数据 shuffle 相比于其余的大规模分布式数据处理系统更具劣势。上面的章节会更为具体的介绍 Flink 的 sort-shuffle 实现以及所获得的后果。

扫描二维码关注公众号,回复: 14294449 查看本文章

4.Flink Sort-Shuffle 实现

和其余分布式系统的批数据 sort-shuffle 实现相似,Flink 的整个 shuffle 过程分为几个重要的阶段,包含写数据到内存缓冲区、对内存缓冲区进行排序、将排好序的数据写出到文件以及从文件中读取 shuffle 数据并发送给上游。然而,与其余零碎相比,Flink 的实现有一些根本性的不同,包含多段数据存储格局、省掉数据合并流程以及数据读取 IO 调度等。这些都使得 Flink 的实现有着更优良的体现。

4.1 设计指标

在 Flink sort-shuffle 的整个实现过程中,咱们把上面这些点作为次要的设计指标加以考量:

4.1.1 缩小文件数量

正如下面所探讨的,基于 hash 的实现会产生大量的文件,而缩小文件的数量有利于进步稳定性和性能。Sort-Spill-Merge 的形式被分布式计算零碎宽泛驳回以达到这一指标,首先将数据写入内存缓冲区,当内存缓冲区填满后对数据进行排序,排序后的数据被写出到一个文件中,这样总的文件数量是:(总数据量 / 内存缓冲区大小),从而文件数量被缩小。当所有数据写出实现后,将产生的文件合并成一个文件,从而进一步缩小文件数量并增大每个数据分区的大小(有利于程序读取)。

相比于其余零碎的实现,Flink 的实现有一个重要的不同,即 Flink 始终向同一个文件中一直追加数据,而不会写多个文件再进行合并,这样的益处始终只有一个文件,文件数量实现了最小化

4.1.2 关上更少的文件

同时关上的文件过多会耗费更多的资源,同时容易导致文件句柄不够用的问题,导致稳定性变差。因而,关上更少的文件有利于晋升零碎的稳定性。对于数据写出,如上所述,通过始终向同一个文件中追加数据,每个并发工作始终只关上一个文件。对于数据读取,尽管每个文件都须要被大量上游的并发工作读取,Flink 仍然通过只关上文件一次,并在这些并发读取工作间共享文件句柄实现了每个文件只关上一次的指标。

4.1.3 最大化程序读写

文件的程序读写对文件的 IO 性能至关重要。通过缩小 shuffle 文件数量,咱们曾经在肯定水平上缩小了随机文件 IO。除此之外,Flink 的批数据 sort-shuffle 还实现了更多 IO 优化来最大化文件的程序读写。在数据写阶段,通过将要写出的数据缓冲区聚合成更大的批并通过 wtitev 零碎调用写出从而实现了更好的程序写。在数据读取阶段,通过引入读取 IO 调度,总是依照文件的偏移程序服务数据读取申请从而最大限度的实现的文件的程序读。试验表明这些优化极大的晋升了批数据 shuffle 的性能。

4.1.4 缩小读写 IO 放大

传统的 sort-spill-merge 形式通过将生成的多个文件合并成一个更大的文件从增大读取数据块的大小。这种实现计划尽管带来了益处,但也有一些有余,最终要的一点便是读写 IO 放大,对于计算节点间的数据 shuffle 而言,在不产生谬误的状况下,自身只须要写入和读取数据一次,然而数据合并使得雷同的数据被读写屡次,从而导致 IO 总量变多,并且存储空间的耗费也会变大。

Flink 的实现通过一直向同一个文件中追加数据以及独特的存储构造躲避了文件和并的过程,尽管单个数据块的大小小于和并后的大小,但因为躲避了文件合并的开销再联合 Flink 独有的 IO 调度,最终能够实现比 sort-spill-merge 计划更高的性能。

4.1.5 缩小内存缓冲区耗费

相似于其余分布式计算零碎中 sort-shuffle 的实现,Flink 利用一块固定大小的内存缓冲区进行数据的缓存与排序。这块内存缓冲区的大小是与并发无关的,从而使得上游 shuffle 数据写所须要的内存缓冲区大小与并发解耦。联合另一个内存治理方面的优化 FLINK-16428 能够同时实现上游 shuffle 数据读取的内存缓冲区耗费并发无关化,从而能够缩小大规模批作业的内存缓冲区耗费。(注:FLINK-16428 同时实用于批作业与流作业)

5. 实现细节

5.1 内存数据排序

在 shuffle 数据的 sort-spill 阶段,每条数据被首先序列化并写入到排序缓冲区中,当缓冲区被填满后,会对缓冲区中的所有二进制数据依照数据分区的程序进行排序。尔后,排好序的数据会依照数据分区的程序被写出到文件中。尽管,目前并没有对数据自身进行排序,然而排序缓冲区的接口足够的泛化,能够实现后续潜在的更为简单的排序要求。排序缓冲区的接口定义如下:

public interface SortBuffer {
    
    
 
   */** Appends data of the specified channel to this SortBuffer. \*/*
   boolean append(ByteBuffer source, int targetChannel, Buffer.DataType dataType) throws IOException;
 
   */** Copies data in this SortBuffer to the target MemorySegment. \*/*
   BufferWithChannel copyIntoSegment(MemorySegment target);
 
   long numRecords();
 
   long numBytes();
 
   boolean hasRemaining();
 
   void finish();
 
   boolean isFinished();
 
   void release();
 
   boolean isReleased();
 }

在排序算法上,咱们抉择了复杂度较低的 bucket-sort。具体而言,每条序列化后的数据后面都会被插入一个 16 字节的元数据。包含 4 字节的长度、4 字节的数据类型以及 8 字节的指向同一数据分区中下一条数据的指针。构造如下图所示:

当从缓冲区中读取数据时,只须要依照每个数据分区的链式索引构造就能够读取到属于这个数据分区的所有数据,并且这些数据放弃了数据写入时的程序。这样依照数据分区的程序读取所有的数据就能够达到依照数据分区排序的指标。

5.2 文件存储构造

如前所述,每个并行任务产生的 shuffle 数据会被写到一个物理文件中。每个物理文件蕴含多个数据区块(data region),每个数据区块由数据缓冲区的一次 sort-spill 生成。在每个数据区块中,所有属于不同数据分区(data partition,由上游计算节点不同并行任务生产)的数据依照数据分区的序号程序进行排序聚合。下图展现了 shuffle 数据文件的具体构造。其中(R1,R2,R3)是 3 个不同的数据区块,别离对应 3 次数据的 sort-spill 写出。每个数据块中有 3 个不同的数据分区,别离将由(C1,C2,C3)3 个不同的并行生产工作进行读取。也就是说数据 B1.1,B2.1 及 B3.1 将由 C1 解决,数据 B1.2,B2.2 及 B3.2 将由 C2 解决,而数据 B1.3,B2.3 及 B3.3 将由 C3 解决。

相似于其余的分布式解决零碎实现,在 Flink 中,每个数据文件还对应一个索引文件。索引文件用来在读取时为每个消费者索引属于它的数据(data partition)。索引文件蕴含和数据文件雷同的 data region,在每个 data region 中有与 data partition 雷同数量的索引项,每个索引项蕴含两个局部,别离对应到数据文件的偏移量以及数据的长度。作为一个优化。Flink 为每个索引文件缓存最多 4M 的索引数据。数据文件与索引文件的对应关系如下:

5.3 读取 IO 调度

为了进一步提高文件 IO 性能,基于下面的存储构造,Flink 进一步引入了 IO 调度机制,相似于磁盘调度的电梯算法,Flink 的 IO 调度总是依照 IO 申请的文件偏移程序进行调度。更具体来说,如果数据文件有 n 个 data region,每个 data region 有 m 个 data partition,同时有 m 个上游计算工作读取这一数据文件,那么上面的伪代码展现了 Flink 的 IO 调度算法的工作流程:

*// let data_regions as the data region list indexed from 0 to n - 1*
 *// let data_readers as the concurrent downstream data readers queue indexed from 0 to m - 1*
 for (data_region in data_regions) {
    
    
   data_reader = poll_reader_of_the_smallest_file_offset(data_readers);
   if (data_reader == null)
     break;
   reading_buffers = request_reading_buffers();
   if (reading_buffers.isEmpty())
     break;
   read_data(data_region, data_reader, reading_buffers);
 }   

5.4 数据播送优化

数据播送是指发送雷同的数据给上游计算节点的所有并行任务,一个常见的利用场景是 broadcast-join。Flink 的 sort-shuffle 实现对这一过程进行了优化,使得在包含内存排序缓冲区和 shuffle 文件中,播送数据只保留一份,这能够大大晋升数据播送的性能。更具体来说,当写入一条播送数据到排序缓冲区时,这条数据只会被序列化并且拷贝一次,同样在将数据写出到 shuffle 文件时,也只会写一份数据。在索引文件中,对于不同 data partition 的数据索引项,他们均指向数据文件中的同一块数据。下图展现了数据播送优化的所有细节:

5.5 数据压缩

数据压缩是一个简略而无效的优化伎俩,测试结果显示数据压缩能够进步 TPC-DS 总体性能超过 30%。相似于 Flink 的基于 hash 的批处理 shuffle 实现,数据压缩是以网络缓冲区(network buffer)为单位进行的,数据压缩不跨 data partition,也就是说发给不同上游并行任务的数据离开压缩,压缩产生在数据排序后写出前,上游生产工作在收到数据后进行解压。下图展现了数据压缩的整个流程:

6.测试后果

6.1. 稳定性

新的 sort-shuffle 的实现极大的进步 Flink 运行批处理作业的稳定性。除了解决了潜在的文件句柄以及 inode 耗尽的不稳固问题外,还解决了一些 Flink 原有 hash-shuffle 存在的已知问题,如 FLINK-21201(创立过多文件导致主线程阻塞),FLINK-19925(在网络 netty 线程中执行 IO 操作导致网络稳定性受到影响)等。

6.2. 性能

咱们在 1000 规模的并发下运行了 TPC-DS 10T 数据规模的测试,结果表明,相比于 Flink 本来的批数据 shuffle 实现,新的数据 shuffle 实现能够实现 2-6 倍的性能晋升,如果排除计算工夫,只统计数据 shuffle 工夫能够是先最高 10 倍的性能晋升。下表展现了性能晋升的具体数据:

Jobs Time Used for Sort-Shuffle (s) Time Used for Hash-Shuffle (s) Speed up Factor
q4.sql 986 5371 5.45
q11.sql 348 798 2.29
q14b.sql 883 2129 2.51
q17.sql 269 781 2.90
q23a.sql 418 1199 2.87
q23b.sql 376 843 2.24
q25.sql 413 873 2.11
q29.sql 354 1038 2.93
q31.sql 223 498 2.23
q50.sql 215 550 2.56
q64.sql 217 442 2.04
q74.sql 270 962 3.56
q75.sql 166 713 4.30
q93.sql 204 540 2.65

注:咱们的测试环境配置如下,因为咱们有较大的内存,所以一些 shuffle 数据量小的作业理论数据 shuffle 仅为读写内存,因而下面的表格仅列出了一些 shuffle 数据量大,性能晋升显著的查问:

Number of Nodes Memory Size Per Node Cores Per Node Disks Per Node
12 About 400G 96 3

7.调优参数

在 Flink 中,sort-shuffle 默认是不开启的,想要开启须要调小这个参数的配置:taskmanager.network.sort-shuffle.min-parallelism。这个参数的含意是如果数据分区的个数(一个计算工作并发须要发送数据给几个上游计算节点)低于这个值,则走 hash-shuffle 的实现,如果高于这个值则启用 sort-shuffle。理论利用时,在机械硬盘上,能够配置为 1,即应用 sort-shuffle。

Flink 没有默认开启数据压缩,对于批处理作业,大部分场景下是倡议开启的,除非数据压缩率低。开启的参数为 taskmanager.network.blocking-shuffle.compression.enabled

对于 shuffle 数据写和数据读,都须要占用内存缓冲区。其中,数据写缓冲区的大小由 taskmanager.network.sort-shuffle.min-buffers 管制,数据读缓冲区由 taskmanager.memory.framework.off-heap.batch-shuffle.size 管制。数据写缓冲区从网络内存中切分进去,如果要增大数据写缓冲区可能还须要增大网络内存总大小,以避免出现网络内存不足的谬误。数据读缓冲区从框架的 off-heap 内存中切分进去,如果要增大数据读缓冲区,可能还须要增大框架的 off-heap 内存,以避免出现 direct 内存 OOM 谬误。一般而言更大的内存缓冲区能够带来更好的性能,对于大规模批作业,几百兆的数据写缓冲区与读缓冲区是足够的。

六、将来瞻望

还有一些后续的优化工作,包含但不限于:

1)网络连接复用,这能够进步网络的建设的性能与稳定性,相干 Jira 包含 FLINK-22643 以及 FLINK-15455;

2)多磁盘负载平衡,这有利于解决负载不均的问题,相干 Jira 包含 FLINK-21790 以及 FLINK-21789;

3)实现近程数据 shuffle 服务,这有利于进一步晋升批数据 shuffle 的性能与稳定性;

4)容许用户抉择磁盘类型,这能够进步易用性,用户能够依据作业的优先级抉择应用 HDD 或者 SSD。

英文原文链接:

https://flink.apache.org/2021…

https://flink.apache.org/2021…

猜你喜欢

转载自blog.csdn.net/qq_21383435/article/details/125358920