kafka的知识总结

1kafka是什么

JMS消息队列,结合JMS中的两种模式,可以有多个消费者主动拉取数据,在JMS中只有点对点模式才有消费者主动拉取数据。

kafka是一个生产-消费模型。

 


》Producer:生产者,只负责数据生产,生产者的代码可以集成到任务系统中。 数据的分发策略由producer决定,默认是defaultPartition  Utils.abs(key.hashCode) % numPartitions

》Broker:当前服务器上的Kafka进程,俗称拉皮条。只管数据存储,不管是谁生产,不管是谁消费。

在集群中每个broker都有一个唯一brokerid,不得重复。

》Topic(主题):目标发送的目的地(生产者发送数据和消费者读取数据的地方或目录),这是一个逻辑上的概念,落到磁盘上是一个partition的目录。partition的目录中有多个segment组合(index,log)

一个Topic对应多个partition[0,1,2,3],一个partition可以由segment组成,或者说partition的文件夹下可以设定多个segment文件,为了将存到partition的数据分散成小的文件。一个segment有默认的大小是1G


partition文件夹的命名是 Topic00001(index,log0000000,log00000001,log0000002.。。。。这就是segment文件),

Topic000001(index,log0000000,log00000001,log0000002)

每个partition可以设置多个副本(replication-factor 1),会从所有的副本中选取一个leader出来。所有读写操作都是通过leader来进行的。

特别强调,和mysql中主从有区别,mysql做主从是为了读写分离,在kafka中读写操作都是leader

》ConsumerGroup:数据消费者组,ConsumerGroup可以有多个,每个ConsumerGroup消费的数据都是一样的。

  可以把多个consumer线程划分为一个组,组里面所有成员共同消费一个topic(主题)的数据,组员之间不能重复消费。

   

2kafka生产数据时的分组策略

默认是defaultPartition  Utils.abs(key.hashCode) % numPartitions

上文中的keyproducer在发送数据时传入的,produer.send(KeyedMessage(topic,myPartitionKey,messageContent))

3kafka如何保证数据的完全生产

ack消息被完全生产后的确认机制。

ack机制:broker表示发来的数据已确认接收无误,表示数据已经保存到磁盘。在kafka/config/producter 中进行参数配给就行了

0:不等待broker返回确认消息

1:等待topic中某个partition leader保存成功的状态反馈

-1:等待topic中某个partition 所有副本都保存成功的状态反馈

4broker如何保存数据

在理论环境下,broker按照顺序读写的机制,可以每秒保存600M的数据。主要通过pagecache机制,尽可能的利用当前物理机器上的空闲内存来做缓存。

当前topic所属的broker,必定有一个该topicpartitionpartition是一个磁盘目录。partition的目录中有多个segment组合(index,log)

5partition如何分布在不同的broker

int i = 0

list{kafka01,kafka02,kafka03}

for(int i=0;i<5;i++){

brIndex = i%broker;

hostName = list.get(brIndex)

}

6consumerGroup的组员和partition之间如何做负载均衡

负载均衡(又称为负载分担),英文名称为Load Balance,其意思就是将负载(工作任务)进行平衡、分摊到多个操作单元上进行执行。

最好是一一对应,一个partition对应一个consumer

如果consumer的数量过多,必然有空闲的consumer

算法:

假如topic1,具有如下partitions: P0,P1,P2,P3

加入group,有如下consumer: C1,C2

首先根据partition索引号对partitions排序: P0,P1,P2,P3

根据consumer.id排序: C0,C1

计算倍数: M = [P0,P1,P2,P3].size / [C0,C1].size,本例值M=2(向上取整)

然后依次分配partitions: C0 = [P0,P1],C1=[P2,P3],Ci = [P(i * M),P((i + 1) * M -1)]

7、如何保证kafka消费者消费数据是全局有序的

伪命题

如果要全局有序的,必须保证生产有序,存储有序,消费有序。

由于生产可以做集群,存储可以分片,消费可以设置为一个consumerGroup,要保证全局有序,就需要保证每个环节都有序。

只有一个可能,就是一个生产者,一个partition,一个消费者。这种场景和大数据应用场景相悖。

 

 8.kafka的启动命令

kafka/bin/kafka-server-start.sh     kafka/config/server.properties

9.怎么消除重复消费?

消费者会批量读取kafka中的数据,当达到配置要求,手动或者自动提交offset到zookeeper中

配置文件中,设置offset自动提交,可以通过时间和空间(消费了数量的大小,如多少w)来具体的实施offset配置,如果节点宕机,重启后通过offset的值,就可以直接定位到继续工作的位置。



猜你喜欢

转载自blog.csdn.net/huangyinzhao/article/details/80244240
今日推荐