Kafka 必背内容

1.kafka生态系统★★★★★

在这里插入图片描述
1、Kafka生态系统四大角色,生产者(Producer)、kafka集群(Broker)、消费者(Consumer)、zookeeper
2、每个消费者都必须属于一个消费组,一个组内的消费者可以多个。
3、一个Topic可以有0到多个多个分区(Partition)
4、一个分区可以有0到多个segment。
5、每个segment可以有由一个log和一个index组成。
6、被复制的分区叫做主副本(Leader),复制出来的叫做从副本(Follwer)
7、生产者只往主副本写数据,消费者只在主副本拉取数据。
8、从副本只做数据备份,不做数据读写。
9、一个分区内的一条数据,只能被一个消费组内的一个消费者消费。
10、消费者的最大并发度由topic的分区数量决定
11、分区副本的数量必须小于等于broker的数量
12、一个topic内的多个分区,每个分区只是所有数据的一部分。所有分区的数据累加到一起是这个topic的全部数据。
13、zookeeper中记录了broker的id 、消费者消费数据的offset,消费者与partition的对应关系(ConsumerA—> Partition-0, ConsumerB—> Partition-1)

2.什么是kafka?★

kafka是一个
分布式的
分区的
多副本的
多订阅者的
消息发布订阅系统

3.kafka的使用场景★

  • 应用耦合
  • 异步处理
  • 限流削峰
  • 消息驱动的系统

4.kafka优缺点★

优点:

  • 可靠性强(分布式-分区-副本)
  • 扩展性强(可伸缩)
  • 性能高(数据读写)
  • 耐用性强(数据持久化)
  • 时效性强。

缺点:

  • 由于是批量发送,数据并非真正的实时
  • 仅支持统一分区内消息有序,无法实现全局消息有序
  • 有可能消息重复消费
  • 依赖zookeeper进行元数据管理

5.Kafka架构(流程)★

生产者、kafka集群、消费者、zookeeper

6.Kafka架构(API)★

生产者、消费者、StreamAPI、ConnectAPI

7.Topic内部有哪些组成?★

  1. 每个Topic包含一个或者多个Partition
  2. 一个partition当中存在多个segment文件段
  3. 每个segment分为两部分,.log文件和.index文件

8.分区和消费组内的消费者之间的关系有哪些情况?

  • Partition数 = 消费任务的并发度 刚刚好,每个任务读取一个partition数据
  • Partition数 > 消费任务的并发度 有部分消费任务读取多个分区的数据
  • Partition数 < 消费任务的并发度 有部分消费任务空闲(可以创建多于分区的消费者数量)

9.分区数、消费者与读取效率之间的关系

分区数越多,同一时间可以有越多的消费者来进行消费,消费数据的速度就会越快,提高消费的性能

10.副本数与broker之间的关系

数据副本(包含本身)数一般情况下小于等于broker的个数

11.什么是主/从副本★

被复制的分区叫做主副本(Leader),复制出来的叫做从副本(Follwer)

12.主/从副本的作用是什么★

主副本负责数据的读写。
从副本只做数据备份,不做数据读写。

13、ISR是什么?★

ISR是一组与leaders完全同步的消息副本(包括leaders本身)。

14.成产者生产数据到kafka集群,数据到分区的方式★

  • 没有指定分区编号,没有指定key,时采用轮询方式存户数据
  • 没有指定分区编号,指定key时,数据分发策略为对key求取hash值,这个值与分区数量取余,于数就是分区编号。
  • 指定分区编号,所有数据输入到指定的分区内
  • 自定义分区

15.Consumer消费数据的流程★

1、首先Consumer连接指定的Topic partition所在leader broker,使用折半/二分查找,先确定数据所在的segment。
2、确定在哪个segment后,使用确定的segment内的index文件找到数据具体的位置采用pull方式从kafkalogs中获取消息。

16.Kafka中的数据删除机制是什么?★

1、时间:默认存储168小时(一周)
2、数据的大小:默认 -1 (不删除),可以自行设置。

17.Kafka如何保证数据不丢失★

1、生产者如何保证数据不丢失?? 通过ack 机制确保数据不丢失。
2、kafka集群如何保证数据不丢失?? 通过数据副本保证数据不丢失。
3、消费者如何保证数据不丢失?? 通过维护数据的offset 保证数据不丢失。

18.Kafka高性能的原因有哪里?★

  • 顺序读写
  • 分区
  • 批量发送
  • 数据压缩

19.Kafka高效查询数据的原因★

  1. Kafka把topic中一个parition大文件分成多个小文件段,通过多个小文件段,就容易定期清除或删除已经消费完文件,减少磁盘占用。
  2. 通过索引信息可以快速定位message和确定response的最大大小。
  3. 通过index元数据全部映射到memory,可以避免segment file的IO磁盘操作。
  4. 通过索引文件稀疏存储,可以大幅降低index文件元数据占用空间大小。

20.如何从Kafka得到准确的信息(不是重读数据)?★

在数据生产过程中避免重复。
在数据消耗期间避免重复。

21.Kafka的设计是什么样的呢?★

Kafka将消息以topic为单位进行归纳
将向Kafka topic发布消息的程序称为producers.
将预订topics并消费消息的程序称为consumer.
Kafka以集群的方式运行,可以由一个或多个服务组成
每个服务叫做一个broker.
producers通过网络将消息发送到Kafka集群,集群向消费者提供消息

22.数据传输的事物定义有哪三种?

1、最多一次:消息不会被重复发送,最多被传输一次,但也有可能一次不传输
可能会造成数据丢失。

2、最少一次: 消息不会被漏发送,最少被传输一次,但也有可能被重复传输.
可能会造成数据的重复消费。

3、精确的一次(Exactly once): 不会漏传输也不会重复传输,每个消息都传输被一次而且仅仅被传输一次,这是大家所期望的

23.Kafka判断一个节点是否还活着有哪些条件?

1、节点必须可以维护和ZooKeeper的连接,Zookeeper通过心跳机制检查每个节点的连接
2、如果节点是个follower,他必须能及时的同步leader的写操作,延时不能太久

24.Kafka 与传统消息系统之间有哪些区别?★

1、Kafka 持久化日志:这些日志可以被重复读取和无限期保留
2、Kafka 是一个分布式系统:它以集群的方式运行,可以灵活伸缩,在内部通过复制数据提升容错能力和高可用性
3、Kafka 支持实时的流式处理

25.Kafka创建Topic时将分区放置到不同的Broker的策略是什么?

前提:副本因子不能大于 Broker 的个数;
第一个分区(编号为0)的第一个副本放置位置是随机从 brokerList 选择的;
其他分区的第一个副本放置位置相对于第0个分区依次往后移。
例如:有5个 Broker,5个分区,假设第一个分区放在第四个 Broker 上,那么第二个分区将会放在第五个 Broker 上;第三个分区将会放在第一个 Broker 上;第四个分区将会放在第二个 Broker 上,第五个分区将会放在第三个 Broker 上;

26.Kafka新建的分区会在哪个目录下创建

若 log.dirs 参数只配置了一个目录,那么分配到各个 Broker 上的分区将在这个目录下创建文件夹用于存放数据。
若 log.dirs 参数配置了多个目录,那么 Kafka 会在含有分区目录总数最少的文件夹中创建新的分区目录,分区目录名为 Topic名+分区ID。注意(不是磁盘使用量最少的目录)

27.partition的数据如何保存到硬盘★

topic中的多个partition以文件夹的形式保存到broker,每个分区序号从0递增, 且消息有序 Partition文件下有多个segment(xxx.index,xxx.log) segment 文件里的 大小和配置文件大小一致可以根据要求修改 默认为1g 如果大小大于1g时,会滚动一个新的segment并且以上一个segment最后一条消息的偏移量命名

28.kafka的ack机制

request.required.acks有三个值 0 1 -1

0:生产者不会等待broker的ack,这个延迟最低但是存储的保证最弱当server挂掉的时候就会丢数据

1:服务端会等待ack值 leader副本确认接收到消息后发送ack但是如果leader挂掉后他不确保是否复制完成新leader也会导致数据丢失

-1:同样在1的基础上 服务端会等所有的follower的副本受到数据后才会受到leader发出的ack,这样数据不会丢失

在这里插入图片描述

29.Kafka的消费者如何消费数据★

消费者每次消费数据的时候,消费者都会记录消费的物理偏移量(offset)的位置 等到下次消费时,他会接着上次位置继续消费。同时也可以按照指定的offset进行重新消费。

30.如何使kafka集群内的数据是有序的?★

只创建一个分区。(但是实际这样会存在性能问题,具体业务具体分析后确认。)

31.Zookeeper汇总保留了哪些数据?

1、消费者提交的偏移量。
2、leader检测、分布式同步、配置管理、识别新节点何时离开或连接、集群、节点实时状态
3、分区和消费者的所有者关
4、broker id

32.kafka consumer 什么情况会触发再平衡reblance?

1、一旦消费者加入或退出消费组,导致消费组成员列表发生变化,消费组中的所有消费者都要执行再平衡。
2、订阅主题分区发生变化,所有消费者也都要再平衡。

33.描述下kafka consumer 再平衡步骤?

1、关闭数据拉取线程,清空队列和消息流,提交偏移量;
2、释放分区所有权,删除zk中分区和消费者的所有者关系;
3、将所有分区重新分配给每个消费者,每个消费者都会分到不同分区;
4、将分区对应的消费者所有关系写入ZK,记录分区的所有权信息;
5、重启消费者拉取线程管理器,管理每个分区的拉取线程。

34.手动提交offset有什么好处??★

使更新offset更及时,避免因offset更新不及时导致重复消费数据的问题。

35.为什么kafka中的数据需要定期删除或合并?★

Kafka只用于做数据的临时存储、临时缓冲,不是永久存储(永久性存储使用HDFS)。

发布了265 篇原创文章 · 获赞 184 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/weixin_42072754/article/details/105048074
今日推荐