カフカクラスタ環境の設定

カフカクラスタ環境の設定

1環境準備

クラスター計画1.1

node02 node03の Node04
ZK ZK ZK
カフカ カフカ カフカ

1.2のjarパッケージダウンロード

インストールパッケージ:kafka_2.11-0.8.2.1.tgz
ダウンロードします。http://kafka.apache.org/downloads.html

2カフカクラスタの展開

1)抽出インストールパッケージ

$ tar -zxvf kafka_2.11-0.8.2.1.tgz -C /usr/local/bigdata

2)インストールディレクトリに

$ cd /usr/local/bigdata/kafka_2.11-0.8.2.1 

3)ディレクトリ/usr/local/bigdata/kafka_2.11-0.8.2.1にログフォルダを作成します

$ mkdir logs

4)設定ファイルを変更します

$ cd config/
$ vi server.properties

次のように入力します。

#broker的全局唯一编号,不能重复,其他机器上有修改
broker.id=0
#删除topic功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘IO的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka运行日志存放的路径
log.dirs=/usr/local/bigdata/kafka_2.11-0.8.2.1/logs
#topic在当前broker上的分区个数
num.partitions=1
#用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接Zookeeper集群地址
zookeeper.connect=Node02:2181,Node03:2181,Node04:2181

5)設定環境変数

$ vi ~/.bashrc

s #KAFKA_HOME export KAFKA_HOME=/usr/local/bigdata/kafka_2.11-0.8.2.1 export PATH=$PATH:$KAFKA_HOME/binS
$ソース〜/ .bashrcに

`` `
6)配布インストールパッケージ

$ scp -r kafka_2.11-0.8.2.1/ hadoop@Node03:/usr/local/bigdata/
$ scp -r kafka_2.11-0.8.2.1/ hadoop@Node04:/usr/local/bigdata/

注意:環境変数の分布の後に他のマシンを設定することを忘れないでください

7)設定ファイルとNode04 node03のに修正されます

変更/usr/local/bigdata/kafka_2.11-0.8.2.1/config/server.properties broker.id=1、broker.id=2

注意:繰り返さないbroker.id

起動と停止3カフカクラスタ

まず、カフカを開始する前に、飼育係を開始

#启动
$ /usr/local/bigdata/zookeeper-3.4.6/bin/zkServer.sh start

#查看状态

$ /usr/local/bigdata/zookeeper-3.4.6/bin/zkServer.sh status
  • クラスタを起動
    順番にすることとnode02、node03の、Node04ノード上のカフカを開始します
$ kafka-server-start.sh /usr/local/bigdata/kafka_2.11-0.8.2.1/config/server.properties & 
  • 閉じるクラスタ
$ kafka-server-stop.sh stop

おすすめ

転載: www.cnblogs.com/foochane/p/11429181.html