CentOS7下Kafka的安装介绍

转载自:https://www.jksxit.com/essay/35

介绍

Kafka是分布式发布-订阅消息系统,最初由LinkedIn公司开发,之后成为之后成为Apache基金会的一部分,由Scala和Java编写。Kafka是一种快速、可扩展的、设计内在就是分布式的,分区的和可复制的提交日志服务。
它与传统系统相比,有以下不同:

  • 它被设计为一个分布式系统,易于向外扩展;
  • 它同时为发布和订阅提供高吞吐量;
  • 它支持多订阅者,当失败时能自动平衡消费者;
  • 它将消息持久化到磁盘,因此可用于批量消费,例如ETL,以及实时应用程序。

基础概念

  • Broker:Kafka集群包含一个或多个服务器,这些服务器就是Broker
  • Topic:每条发布到Kafka集群的消息都必须有一个Topic
  • Partition:是物理概念上的分区,为了提供系统吞吐率,在物理上每个Topic会分成一个或多个Partition,每个Partition对应一个文件夹
  • Producer:消息产生者,负责生产消息并发送到Kafka Broker
  • Consumer:消息消费者,向kafka broker读取消息并处理的客户端。
  • Consumer Group:每个Consumer属于一个特定的组,组可以用来实现一条消息被组内多- 个成员消费等功能。

安装kakfka

官网下载Kafka安装包,解压安装,或直接使用命令下载。

wget http://mirror.bit.edu.cn/apache/kafka/1.0.0/kafka_2.11-1.0.0.tgz

解压安装

tar -zvxf kafka_2.11-1.0.0.tgz -C /usr/local/
d /usr/local/kafka_2.11-1.0.0/

修改其中

broker.id=1
log.dirs=data/kafka-logs

功能验证

启动zookeeper

使用安装包中的脚本启动单节点Zookeeper实例:

bin/zookeeper-server-start.sh -daemon config/zookeeper.properties

启动Kafka服务

使用kafka-server-start.sh启动kafka服务:

bin/kafka-server-start.sh config/server.properties

创建Topic

使用kafka-topics.sh 创建但分区单副本的topic test

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

查看Topic

bin/kafka-topics.sh --list --zookeeper localhost:2181

在这里插入图片描述

产生消息

使用kafka-console-producer.sh 发送消息

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

在这里插入图片描述

消费消息

使用kafka-console-consumer.sh 接收消息并在终端打印

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

删除Topic

bin/kafka-topics.sh --delete --zookeeper localhost:2181 --topic test

查看描述 Topic 信息

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test

在这里插入图片描述

第一行给出了所有分区的摘要,每个附加行给出了关于一个分区的信息。 由于我们只有一个分区,所以只有一行。

“Leader”: 是负责给定分区的所有读取和写入的节点。 每个节点将成为分区随机选择部分的领导者。

“Replicas”: 是复制此分区日志的节点列表,无论它们是否是领导者,或者即使他们当前处于活动状态。

“Isr”: 是一组“同步”副本。这是复制品列表的子集,当前活着并被引导到领导者。

集群配置

Kafka支持两种模式的集群搭建:

  1. 单机多broker集群配置;
  2. 多机多broker集群配置。

单机多breoker

利用单节点部署多个broker。不同的broker不同的id,监听端口以及日志目录,如:

  • 将配置文件复制两份
cp config/server.properties config/server-1.properties
cp config/server.properties config/server-2.properties 
  • 修改配置文件信息
vim config/server-1.properties
#修改内容
broker.id=2
listeners=PLAINTEXT://your.host.name:9093
log.dirs=/data/kafka-logs-1


vim config/server-2.properties
#修改内容
broker.id=3
listeners=PLAINTEXT://your.host.name:9094
log.dirs=/data/kafka-logs-2
  • 启动多个kafka服务
in/kafka-server-start.sh config/server-1.properties 

bin/kafka-server-start.sh config/server-2.properties 
  • 最后按照上面方法产生和消费信息。

多机多broker

分别在多个节点按上述方式安装Kafka,配置启动多个Zookeeper 实例。如:192.168.18.130、192.168.18.131、192.168.18.132三台机器

分别配置多个机器上的Kafka服务 设置不同的broke id,zookeeper.connect设置如下:

zookeeper.connect=192.168.18.130:2181,192.168.18.131:2181,192.168.18.132:2181

猜你喜欢

转载自blog.csdn.net/weixin_43737422/article/details/84329753