kafka --基本介绍

kafka基本介绍

 官网:http://kafka.apache.org/

kafka是一个分布式,分区的,多副本的,多订阅者的消息发布订阅系统(分布式MQ系统),可以用于搜索日志,监控日志,访问日志等。Kafka is a distributed,partitioned,replicated commit logservice。

kafka对消息保存时根据Topic进行归类,发送消息者成为Producer,消息接受者成为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)成为broker。无论是kafka集群,还是producer和consumer都依赖于zookeeper来保证系统可用性集群保存一些meta信息。

 

kafka的好处

可靠性高:分布式的—>处理能力快,分区的—>数据读取速度快,副本机制à 防止数据丢失。

可扩展性:动态扩展,添加节点。

耐用性:kafka讲数据写入磁盘

高性能:对于发布和订阅消息都具有高吞吐量。保证零停机和零数据丢失。

 

分布式的发布与订阅系统

apache kafka是一个分布式发布-订阅消息系统和一个强大的队列,可以处理大量的数据,并使能够将消息从一个端点传递到另一个端点kafka适合离线和在线消息消费

kafka消息保留在磁盘上,并在集群内复制以防止数据丢失。

kafka构建在zookeeper同步服务之上。它与apachespark非常好的集成,应用于实时流式数据分析。

 

kafka的主要应用场景

指标分析

kafka通常用于操作监控数据。用于接收聚合来自多种应用程序的统计信息,   以便于向产生环境中的数据集中反馈数据

日志聚合解决方法

kafka可用于跨组织从多个服务器收集日志,并使他们以标准的合适提供给多个服务器。

流式处理

流式处理框架(sparkstormflink)从主题中读取数据,对齐进行处理,并将处理后的数据写入新的主题,供用户和应用程序使用,kafka的强耐久性在流处理的上下文中也非常的有用。

kafka的架构介绍

                                               

  1. Producers:生产数据到topic, topic 可以是一个或多个。
  2. Consumers:在一个或多个topic读取数据,消费数据。
  3. Connectors:允许构建和运行可重用的生产者或者消费者,能够把kafka主题连接到现有的应用程序或数据系统。例如:一个连接到关系数据库的连接器可能会获取每个表的变化。
  4. StreamProcessors:应用充当处理器。从一个或者多个主题获取输入流,并生产一个输出流到一个或 者多个主题,能够有效的变化输入流为输出流。

kafka架构内部细节剖析

                        

               

说明:kafka支持消息持久化,消费端为拉模型来拉取数据,消费状态和订阅关系有客户端负责维护,消息消费完后,不会立即删除,会保留历史消息。因此支持多订阅时,消息只会存储一份就可以了。

Broker:kafka集群中包含一个或者多个服务实例,这种服务实例被称为Broker

Topic:每条发布到kafka集群的消息都有一个类别,这个类别就叫做Topic

Partition:Partition是一个物理上的概念,每个Topic包含一个或者多个Partition

segment:一个partition当中存在多个segment文件段,每个segment分为两部分,.log文件和.index文件,其中.index文件是索引文件,主要用于快速查询.log文件当中数据的偏移量位置

Producer:负责发布消息到kafka的Broker中。

Consumer:消息消费者,向kafka的broker中读取消息的客户端

Consumer Group:每一个Consumer属于一个特定的Consumer Group(可以为每个Consumer指定 groupName)

.log:存放数据文件

.index:存放.log文件的索引数据

           

发布了87 篇原创文章 · 获赞 176 · 访问量 11万+

猜你喜欢

转载自blog.csdn.net/weixin_44036154/article/details/104942876