Kafka 实战指南—— Kafka 工作原理分析


Kafka 核心组成:

在这里插入图片描述

图 Kafka 核心组成

1. Kafka 生产过程分析

1.1 Kafka 的消息写入方式(顺序写磁盘)

producer 采用推(push)模式将消息发送到 broker,每条消息都被追加(append)到分区(patition)中,属于顺序写磁盘(顺序写磁盘效率比随机写内存要高,保障 kafka 吞吐率)。

1.2 分区(Partition)

消息发送时都被发送到一个 topic,其本质就是一个目录,而 topic 是由一些 Partition Logs(分区日志)组成,其组织结构如下图所示:

在这里插入图片描述

图 生产者写入数据

在这里插入图片描述

图 消费者消费数据

我们可以看到,每个 Partition 中的消息都是有序的,生产的消息被不断追加到 Partition log上,其中的每一个消息都被赋予了一个唯一的offset值

1.2.1 为什么要分区

  1. 方便在集群中扩展,每个 Partition 可以通过调整以适应它所在的机器,而一个 topic 又可以有多个 Partition 组成,因此整个集群就可以适应任意大小的数据了;

  2. 可以提高并发,因为可以以 Partition 为单位读写了。

1.2.2 分区的原则

  1. 指定了 patition,则直接使用;

  2. 未指定 patition 但指定 key,通过对 key 的值进行 hash 取模得出一个 patition;

  3. patition 和 key 都未指定,使用轮询选出一个 patition。

DefaultPartitioner分区源码:

public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
    
    
    List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
    int numPartitions = partitions.size();
    if (keyBytes == null) {
    
    
        int nextValue = this.nextValue(topic);
        List<PartitionInfo> availablePartitions = cluster.availablePartitionsForTopic(topic);
        if (availablePartitions.size() > 0) {
    
    
            int part = Utils.toPositive(nextValue) % availablePartitions.size();
            return ((PartitionInfo)availablePartitions.get(part)).partition();
        } else {
    
    
            return Utils.toPositive(nextValue) % numPartitions;
        }
    } else {
    
    
        // 有 key,通过key hash 后取模
        return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
    }
}

// 轮询
private int nextValue(String topic) {
    
    
    AtomicInteger counter = (AtomicInteger)this.topicCounterMap.get(topic);
    if (null == counter) {
    
    
        counter = new AtomicInteger(ThreadLocalRandom.current().nextInt());
        AtomicInteger currentCounter = (AtomicInteger)this.topicCounterMap.putIfAbsent(topic, counter);
        if (currentCounter != null) {
    
    
            counter = currentCounter;
        }
    }
    
    return counter.getAndIncrement();
}

1.3 副本(Replication)

同一个 partition 可能会有多个 replication(对应 server.properties配置中的 default.replication.factor=N)。没有 replication 的情况下,一旦 broker 宕机,其上所有 patition 的数据都不可被消费,同时 producer 也不能再将数据存于其上的 patition。引入 replication 之后,同一个 partition 可能会有多个 replication,而这时需要在这些 replication 之间选出一个 leader,producer 和 consumer 只与这个leader交互,其它 replication 作为 follower 从 leader 中复制数据

1.4 写入流程

producer 写入消息流程如下:

在这里插入图片描述

  1. producer 先从 zookeeper 的 /brokers/.../state节点找到该 partition 的 leader。(注意:这里不是直接连接Zookeeper,而是通过 Kafka 集群的到 broker state

  2. producer将消息发送给该 leader。

  3. leader 将消息写入本地 log。

  4. followers 从 leader pull 消息,写入本地 log 后向 leader 发送 ACK。

  5. leader 收到所有 ISR 中的 replication 的 ACK 后,增加 HW(high watermark,最后 commit 的offset,消费者最大能消费的 offset)并向producer发送 ACK。

2. Broker 保存消息

2.1 存储方式

物理上把 topic 分成一个或多个 patition(对应 server.properties 中的 num.partitions=3配置),每个patition 物理上对应一个文件夹(该文件夹存储 patition 的所有消息和索引文件),如下:

[dwjf321@hadoop102 logs]$ ll
drwxrwxr-x. 2 dwjf321 dwjf321  4096 8月   6 14:37 first-0
drwxrwxr-x. 2 dwjf321 dwjf321  4096 8月   6 14:35 first-1
drwxrwxr-x. 2 dwjf321 dwjf321  4096 8月   6 14:37 first-2
[atguigu@hadoop102 logs]$ cd first-0
[atguigu@hadoop102 first-0]$ ll
总用量 356
-rw-rw-r--. 1 dwjf321 dwjf321 10485760 12月 25 22:32 00000000000000018519.index
-rw-rw-r--. 1 dwjf321 dwjf321   348075 12月 24 23:41 00000000000000018519.log
-rw-rw-r--. 1 dwjf321 dwjf321 10485756 12月 25 22:32 00000000000000018519.timeindex
-rw-rw-r--. 1 dwjf321 dwjf321       10 12月 24 23:58 00000000000000019534.snapshot
-rw-rw-r--. 1 dwjf321 dwjf321       22 12月 25 22:32 leader-epoch-checkpoint

2.2 存储策略

无论消息是否被消费,kafka 都会保留所有消息。有两种策略可以删除旧数据:

  1. 基于时间:log.retention.hours=168,默认 7 天

  2. 基于大小:log.retention.bytes=1073741824,默认 1 G。

需要注意的是,因为 Kafka 读取特定消息的时间复杂度为 O(1),即与文件大小无关,所以这里删除过期文件与提高 Kafka 性能无关。

2.3 Zookeeper 存储结构

在这里插入图片描述

注意:producer不在zk中注册,消费者在zk中注册。

3. Kafka 消费过程分析

3.3 消费者组

在这里插入图片描述

图 消费组

消费者是以 consumer group 消费组 的方式工作,由一个或者多个消费者组成一个组,共同消费一个 topic。每个分区在同一时间只能由 group 中的一个消费者读取,但是多个 group 可以同时消费这个 partition。在图中,有一个由三个消费者组成的 group,有一个消费者读取主题中的两个分区,另外两个分别读取一个分区。某个消费者读取某个分区,也可以叫做某个消费者是某个分区的拥有者。

在这种情况下,消费者可以通过水平扩展的方式同时读取大量的消息。另外,如果一个消费者宕机了,那么其他的group 成员会自动负载均衡读取之前失败的消费者读取的分区

3.4 消费方式

consumer 采用 pull(拉)模式从 broker 中读取数据。

因为 push(推)模式很难适应消费速率不同的消费者,因为消息发送速率是由broker决定的。它的目标是尽可能以最快速度传递消息,但是这样很容易造成consumer来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而pull模式则可以根据consumer的消费能力以适当的速率消费消息。

对于Kafka而言,pull模式更合适,它可简化broker的设计,consumer可自主控制消费消息的速率,同时consumer 可以自己控制消费方式——即可批量消费也可逐条消费,同时还能选择 offset 的不同的提交方式从而控制消息不丢失

pull 模式不足之处是,如果 kafka 没有数据,消费者可能会陷入循环中,一直等待数据到达。为了避免这种情况,我们在我们的拉请求中有参数,允许消费者请求在等待数据到达的“长轮询”中进行阻塞(并且可选地等待到给定的字节数,以确保大的传输大小)。

猜你喜欢

转载自blog.csdn.net/dwjf321/article/details/114279031