はじめに1.カフカ
1.1。主な機能
導入の公式サイトによると、ApacheKafka®がある分散型ストリーミングメディアプラットフォームは、それは、3つの主要な機能があります。
1 :.それはあなたが公開とメッセージングストリームをサブスクライブパブリッシュおよび記録のストリームを購読することができます、この機能は、メッセージキューのフレームワークカフカの理由として分類されているメッセージキューに似ています
2 :.それはあなたがファイル保存されたメッセージ・フローとしてカフカのメッセージ・フローを、記録するためにフォールトトレラントな方法でフォールトトレラントな方法でレコードのストリームを保存することができます
3:それは、彼らが発生すると、レコードのストリームを処理することができます場合は、さらにニュースリリースを処理することができます
1.2。シーンを使用して
1 :.確実にシステムやアプリケーション間でのデータは、リアルタイムデータパイプの信頼性の高い伝送のためのシステムやアプリケーション間でのメッセージキュー機能を構築するために取得したデータパイプラインをリアルタイムストリーミングの構築
2:データのストリームに変換または反応のリアルタイムストリーミングアプリケーションを構築します。データ・ストリームを変換または処理するために、リアルタイムのストリーミングデータハンドラの構築、データ処理機能
1.3。詳細
カフカは、主に分散カフカの基本的な仕組みを簡単に紹介以下、メッセージング・システムをサブスクライブパブリッシュとして
1.3.1メッセージ送信処理
プロデューサ、即ちプロデューサは、カフカのクラスタは、メッセージを送信する前に、メッセージは、すなわち、トピックは、図は、2つのプロデューサがtopic2のメッセージを送信することに加えて、として分類topic1メッセージを送信示し、分類され、メッセージを送信します。
トピックテーマは、メッセージを分類することができ、メッセージのテーマを指定することによって、消費者は、メッセージのトピックに自分のニーズに焦点を当てることができ
消費者すなわち消費者は、長いカフカクラスタとの接続の確立を介して消費者は、常にクラスタからのメッセージを引いて、これらのメッセージを処理することができます。
上記の図から対応していない同じトピックで消費者と生産者の数を見ることができます。
1.3.2カフカサーバーメッセージストレージポリシー
カフカメモリいえば、あなたは、トピックを作成し、パーティション、パーティションを言及する必要があり、およびパーティションの数、パーティションのより多くの数、高いスループットを指定することができますが、また、より多くのリソースを必要とするだけでなく、より高い可用性をもたらさない、カフカは、生産者によって送信されたメッセージを受信した後、別のパーティション平衡戦略に従ってメッセージを格納します。
各パーティションでは、メッセージが順に格納され、最後に受信したメッセージは、最後に消費しました。
1.3.3生産者との対話
カフカのクラスタへのメッセージプロデューサを送信するときは、パーティションを指定することにより、指定されたパーティションに送信することができます
また、別のパーティションにバランスの取れた政策を指定してメッセージを送信することができます
指定しない場合、デフォルトのランダム分散ポリシーを使用すると、メッセージがランダムに別のパーティションに保存されています
1.3.4消費者との対話
個人消費のニュース、カフカの使用は、消費者の現在位置を記録するためにオフセットする場合
同じトピックで示すように、我々は一緒に消費つの異なる基を有していて、その記録位置が互いに、消費が変化しないオフセットながらカフカ設計では、消費者に異なるグループメッセージが複数存在してもよいです干渉。
グループで、各パーティションは1つのつのみのパーティション、消費者が複数のパーティションを消費することができ、消費者までバインドすることができますので、グループでは、消費者の数は、不必要なパーティションの数ではありません個人消費を与えます
グループの消費者の数は、パーティションの数よりも大きい場合はそのため、余分な消費者は任意のメッセージを受信しません。
2.カフカのインストールと使用
2.1をダウンロード
你可以在kafka官网 http://kafka.apache.org/downloads下载到最新的kafka安装包,选择下载二进制版本的tgz文件,根据网络状态可能需要fq,这里我们选择的版本是0.11.0.1,目前的最新版
2.2. 安装
Kafka是使用scala编写的运行与jvm虚拟机上的程序,虽然也可以在windows上使用,但是kafka基本上是运行在linux服务器上,因此我们这里也使用linux来开始今天的实战。
首先确保你的机器上安装了jdk,kafka需要java运行环境,以前的kafka还需要zookeeper,新版的kafka已经内置了一个zookeeper环境,所以我们可以直接使用
说是安装,如果只需要进行最简单的尝试的话我们只需要解压到任意目录即可,这里我们将kafka压缩包解压到/home目录
2.3. 配置
在kafka解压目录下下有一个config的文件夹,里面放置的是我们的配置文件
consumer.properites 消费者配置,这个配置文件用于配置于2.5节中开启的消费者,此处我们使用默认的即可
producer.properties 生产者配置,这个配置文件用于配置于2.5节中开启的生产者,此处我们使用默认的即可
server.properties kafka服务器的配置,此配置文件用来配置kafka服务器,目前仅介绍几个最基础的配置
- broker.id 申明当前kafka服务器在集群中的唯一ID,需配置为integer,并且集群中的每一个kafka服务器的id都应是唯一的,我们这里采用默认配置即可
- listeners 申明此kafka服务器需要监听的端口号,如果是在本机上跑虚拟机运行可以不用配置本项,默认会使用localhost的地址,如果是在远程服务器上运行则必须配置,例如:listeners=PLAINTEXT://192.168.180.128:9092。并确保服务器的9092端口能够访问
- zookeeper.connect 申明kafka所连接的zookeeper的地址 ,需配置为zookeeper的地址,由于本次使用的是kafka高版本中自带zookeeper,使用默认配置即可:zookeeper.connect=localhost:2181
2.4. 运行
- 启动zookeeper
cd进入kafka解压目录,输入
bin/zookeeper-server-start.sh config/zookeeper.properties
启动zookeeper成功后会看到如下的输出
2.启动kafka
cd进入kafka解压目录,输入
bin/kafka-server-start.sh config/server.properties
启动kafka成功后会看到如下的输出
2.5. 创建第一个消息
2.5.1 创建一个topic
Kafka通过topic对同一类的数据进行管理,同一类的数据使用同一个topic可以在处理数据时更加的便捷
在kafka解压目录打开终端,输入
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic
test
创建一个名为test的topic
在创建topic后可以通过输入
bin/kafka-topics.sh --list --zookeeper localhost:2181
来查看已经创建的topic
2.5.2
创建一个消息消费者
在kafka解压目录打开终端,输入
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic
test
--from-beginning
可以创建一个用于消费topic为test的消费者
消费者创建完成之后,因为还没有发送任何数据,因此这里在执行后没有打印出任何数据
不过别着急,不要关闭这个终端,打开一个新的终端,接下来我们创建第一个消息生产者
2.5.3 创建一个消息生产者
在kafka解压目录打开一个新的终端,输入
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic
test
在执行完毕后会进入的编辑器页面
在发送完消息之后,可以回到我们的消息消费者终端中,可以看到,终端中已经打印出了我们刚才发送的消息
3. 在java程序中使用kafka
跟上节中一样,我们现在在java程序中尝试使用kafka
3.1 创建Topic
public static void main(String[] args) { //创建topic Properties props = new Properties(); props.put("bootstrap.servers", "192.168.180.128:9092"); AdminClient adminClient = AdminClient.create(props); ArrayList<NewTopic> topics = new ArrayList<NewTopic>(); NewTopic newTopic = new NewTopic("topic-test", 1, (short) 1); topics.add(newTopic); CreateTopicsResult result = adminClient.createTopics(topics); try { result.all().get(); } catch (InterruptedException e) { e.printStackTrace(); } catch (ExecutionException e) { e.printStackTrace(); } }
使用AdminClient API可以来控制对kafka服务器进行配置,我们这里使用 [NewTopic(String name, int numPartitions, short replicationFactor)]的构造方法来创建了一个名为“topic-test”,分区数为1,复制因子为1的Topic.
3.2 Producer生产者发送消息
public static void main(String[] args){ Properties props = new Properties(); props.put("bootstrap.servers", "192.168.180.128:9092"); props.put("acks", "all"); props.put("retries", 0); props.put("batch.size", 16384); props.put("linger.ms", 1); props.put("buffer.memory", 33554432); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); Producer<String, String> producer = new KafkaProducer<String, String>(props); for (int i = 0; i < 100; i++) producer.send(new ProducerRecord<String, String>("topic-test", Integer.toString(i), Integer.toString(i))); producer.close(); }
使用producer发送完消息可以通过2.5中提到的服务器端消费者监听到消息。也可以使用接下来介绍的java消费者程序来消费消息
3.3 Consumer消费者消费消息
public static void main(String[] args){ Properties props = new Properties(); props.put("bootstrap.servers", "192.168.12.65:9092"); props.put("group.id", "test"); props.put("enable.auto.commit", "true"); props.put("auto.commit.interval.ms", "1000"); props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer"); final KafkaConsumer<String, String> consumer = new KafkaConsumer<String,String>(props); consumer.subscribe(Arrays.asList("topic-test"),new ConsumerRebalanceListener() { public void onPartitionsRevoked(Collection<TopicPartition> collection) { } public void onPartitionsAssigned(Collection<TopicPartition> collection) { //将偏移设置到最开始 consumer.seekToBeginning(collection); } }); while (true) { ConsumerRecords<String, String> records = consumer.poll(100); for (ConsumerRecord<String, String> record : records) System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value()); } }
这里我们使用Consume API 来创建了一个普通的java消费者程序来监听名为“topic-test”的Topic,每当有生产者向kafka服务器发送消息,我们的消费者就能收到发送的消息。