kafka如何保证数据不丢失

kafka笔记之如何保证数据不丢失

Kafka是一种高吞吐量的分布式发布订阅消息系统。在使用过程中如果使用不当,经常会出现消息丢失的情况,这是业务系统不能容忍的,消息系统最重要的是保证数据不丢失。本文主要记录kafka是如何保证数据不丢失的,主要从三方面来介绍,消息发送端保证数据不丢失,kafka服务保证消息不丢失,消费者保证消息不丢失。

基础知识

  1. kafka 可以保证分区消息的顺序,同一个分区,先发送到kafka分区的消息,会被先消费掉。
  2. kafka 是通过一个集群对外提供服务,只要是集群中多个副本中有一个副本是活跃的,那么收到的消息就不会丢失。

kafka集群保证数据不丢失

先思考一个问题:
kafka集群什么时候会丢失消息?
---------------------------------------------------------------------------
这就要从kafka的复制机制开始讲了。
kafka每个topic有多个分区,分区存储在磁盘上,kafka可以保证分区的数据是有序的,每个分区可以有多个副本。
副本按照是否是首领,可以分为首领副本和跟随者副本(这里对应的就是kafka集群中的leader和follower)。
所有的消息都是发送给leader的,消息消费也是从leader获取的。首领副本第一时间收到消息,或者消费消息,他一定是同步副本。
其他follower都是和leader保持通信,同步leader的消息。当leader不可用时,会选举一个follower会变成leader。

---------------------------------------------------------------------------
对于一个主一个从的两个kafka,做的集群来说。

(此时的kafka复制系数是2. 对应的配置参数是**replication,factor**) 
一个是leader副本,一个是follower副本。当follower副本一直能与leader副本保持同步的时候 follower副本是 同步副本,
当follower与leader无法保持同步的时候 follower副本则变成非同步副本。

如果leader宕机,这时候系统需要选举一个follower来作为首领,kafka优先选择同步副本作为首领,当系统没有同步副本的时候。
kafka如果选择非同步副本作为首领,则会丢失一部分数据,(这一部分数据就是非同步副本无法及时从首领副本更新的消息)。
kafka如果不选择非同步副本作为首领,则此时kafka集群不可用。

kafka 选择非同步副本作为首领副本的行为叫做,不完全首领选举。如何控制kafka在leader宕机时,同步副本不可用时,是否选择非同步
作为首领?通过kafka的另外一个参数来控制的 : **unclean.leader.election**.  如果是true 则会发生不完全首领选举。

副本数建议3个就可以,多的话需要更多的磁盘,unclean.leader.election 建议false.
---------------------------------------------------------------------------
对于两个kafka做的集群来说,肯定是不安全的。那么三个节点的kafka安全吗?

答案是 也不一定安全
因为即使三个副本,也有可能是两个从都是非同步副本,此时主宕机,从要么不可用(影响高可用),要么成为主(数据丢失)。
这里就需要保证kafka系统中至少有两个同步副本。一个肯定是首领副本,另外一个是从的副本。
此时需要kafka的另外一个参数 最小同步副本数   **min,insync.replicas**
只有保证kafka收到生产者的消息之后,至少有 “最小同步副本数“ 的副本收到消息,才能保证在主宕机时消息不丢失。
这个参数的意思是 kafka收到生产者消息之后,至少几个同步副本,同步之后,才给客户端消息确认。
数量多能保证高可用,但是牺牲效率。

---------------------------------------------------------------------------

kafka 如何判断一个follower副本是不是同步副本?
满足两个个条件
1.在过去10秒内从首领获取过消息,并且是最新消息。 
2.过去6秒内 和 zk直接发送过心跳。 

疑问:如果kafka 长时间未收到消息,第一条如何满足?

消息发送者正确的发送姿势

消息怎么才算是发生成功?
---------------------------------------------------------------------------
消息的生产者向kafka集群发送消息,需要等待kafka集群确认,这里涉及到一个参数 acks 
他的值有三个 0, 1, all 
如果是0 ,那么代表发送过去,不等待kafka消息确认,认为成功
一定会丢失消息,可能kafka集群正在选举,此时就无法收到任何异常。
如果是1,那么代表发送过去,等待首领副本确认消息,认为成功
首领肯定收到了消息,写入了分区文件(不一定落盘)。
如果是all,  那么代表发送过去之后,消息被写入所有同步副本之后 ,认为成功。
注意这里是 所有同步副本,不是所有副本。 具体是多少同步副本,还要取决于kafka集群设置的最小同步副本数,和集群当前的同步副本数。
选择这种配置,会可靠,但是牺牲效率,可以通过,增大批和使用异步模式,提高效率。
---------------------------------------------------------------------------

如果发生消息发生异常怎么办?重试吗?
---------------------------------------------------------------------------
哪些异常需要重试?
网络异常和集群无主,或者正在选举的异常是可以重试的。
哪些不需要重试?
配置异常。
其他异常怎么办?
序列化异常,内存溢出,栈溢出等。
---------------------------------------------------------------------------
重要的配置参数
如果网络异常收不到响应,则等待,这里有个配置等待时间 request,timeout.ms 发送消息等待时间。
metadata.fetch.time.out 从kafka 获取元数据的等待时间。
max.block.ms : 配置控制了KafkaProducer.send()并将KafkaProducer.partitionsFor()被阻塞多长时间。
由于缓冲区已满或元数据不可用,这些方法可能会被阻塞止。用户提供的序列化程序或分区程序中的阻塞将不计入此超时
重试次数  retries 
重试直接的等待时间, 默认是100 ms ,可以通过 retry.backoff.ms 配置 
多个消息发送给同一个分区的时候,生产者会把消息打成一个批,批大小设置 batch.size 过大占内存,过小发送频繁,并且生产者不是
必须满批发送,有个等待时间,linger.ms设置 等待多久批不满则发送。

消息消费者正确的消费姿势

消费者需要向kafka集群提交 已经消费的消息的offset来确定消息消费到了那里。
消息队列的消费方式有两种,一种是发布订阅模式,一种是队列模式。
发布订阅模式 一个消息可以被多个消费者消费。队列模式多个消费者只能消费到一部分消息。
kafka是通过group-id来区分消费组的。
一个topic被 同一个消费组的不同消费者消费 ,相当于是队列模式。被不同消费组消费相当于是 订阅模式。
一个partition在同一个时刻只有一个consumer instance在消费。
对于正确的模式,我们需要配置正确的group-id
---------------------------------------------------------------------------
auto.offset.reset
没有偏移量可以提交的时候,系统从哪里开始消费。
有两种设置 :earliest 和latest 。
---------------------------------------------------------------------------
enable.auto.commit
自动提交 ,如果开启了自动提交,那么系统会自动进行提交offset。可能会引起,并未消费掉,就提交了offset.引起数据的丢失。
与自动提交相关的是自动提交的间隔时间 auto.commit.interval.ms 默认是5秒钟提交一次,可以通过查看 kafka config目录下的
配置文件,查询配置的默认值。
自动提交 还可能引起消息的重复消费,特别是 多个客户端直接出现重平衡时。

总结

只有三方面都保证了。才可以保证数据不丢失。

猜你喜欢

转载自blog.csdn.net/liudashuang2017/article/details/88576274