公式ドキュメント
輸出KAFKA_HOME =は/ usr / local /カフカ
環境変数source / etc / profileをを構築
CDカフカ/
CDの設定/
/ *
* /
broker.id = 1
リスナー= PLAINTEXT:9092://192.168.16.100
#1 advertised.listeners = PLAINTEXT://your.host.name:9092
#1 listener.security.protocol.map = PLAINTEXT:PLAINTEXT、SSL:SSL、SASL_PLAINTEXT:SASL_PLAINTEXT、SASL_SSL:SASL_SSL
num.network.threads = 3
num.io.threads = 8
socket.send.buffer.bytes = 102400
socket.receive.buffer.bytes = 102400
socket.request.max.bytes = 104857600
log.dirs =の/ var /カフカ/ログ
num.partitions = 1
num.recovery.threads.per.data.dir = 1
offsets.topic.replication.factor = 1
transaction.state.log.replication.factor = 1
transaction.state.log.min.isr = 1
#メッセージの数は、ディスクへのデータのフラッシュを強制する前に同意します
#log.flush.interval.messages = 10000
我々はフラッシュを強制する前に、#時間の最大量は、メッセージがログに座ることができます
#log.flush.interval.ms = 1000
#ログファイルの最低年齢は経年に削除対象にするように
log.retention.hours = 168
#ログのサイズベースの保持ポリシー。残りのない限り、セグメントは、ログからプルーニングされています
#セグメントはlog.retention.bytes下回ります。独立log.retention.hoursの機能。
#log.retention.bytes = 1073741824
#ログセグメントファイルの最大サイズ。このサイズに達すると新しいログ・セグメントが作成されます。
log.segment.bytes = 1073741824
#セグメントのログを記録する間隔は、彼らが応じて削除することができるかどうかがチェックされています
保持ポリシーへ#
log.retention.check.interval.ms = 300000
zookeeper.connect = 192.168.16.100:2181
zookeeper.connection.timeout.ms = 6000
group.initial.rebalance.delay.ms = 0
真= delete.topic.enable
コンフィギュレーション
kafka-server-start.sh /usr/local/kafka/config/server.properties
kafka-topics.sh --create --zookeeperはlocalhost:2181 --replication因子1つの--partitions 1 --topic試験
kafka-topics.sh --list --zookeeperはlocalhost:2181
kafka-console-producer.sh --brokerリスト192.168.16.100:9092 --topicテスト
などを入力することができますメッセージDING XIANG HUA
5つのクローンセッションは、消費者がマルチブートを使用することができますバックを開始します
kafka-console-consumer.sh --bootstrapサーバ192.168.16.100:9092 --topicテスト--from-始まります
localhostの--zookeeper kafka-topics.sh --delete --topicテスト:2181