インストールの飼育係+カフカのクラスタ

非常にタイムクリティカルなデータ、在庫は、デュアルライトキャッシュデータベース+技術ソリューションを採用するだけでなく、一貫性の問題を解決するため、二重書きました
メッセージキューを監視した後、キャッシュデータの生成、およびデータ・ソース・サービス(製品情報管理サービス)データ変更が発生し、データ変更メッセージは、メッセージキューにプッシュされます
消費者へのキャッシュデータ制作サービスをこのデータのメッセージを変更し、メッセージの指示に従って、いくつかのパラメータを抽出し、そのデータに対応したサービスが私を得たインターフェース・データ・ソースを呼び出すためには、私にこの時間を持っmysqlのライブラリから通常であります
1、飼育係のクラスタセットアップ
WinSCPを使用して飼育係-3.4.5.tar.gzは、/ usr / localディレクトリにコピーします。
飼育係-3.4.5.tar.gz -zxvfタール:飼育係-3.4.5.tar.gz解凍のために。
MV飼育係-3.4.5 ZKを:名前を変更する飼育係のディレクトリ
飼育係を関連の環境変数の設定
VI〜/ .bashrcの
輸出ZOOKEEPER_HOME =は/ usr / local / ZK 
輸出PATH = $ ZOOKEEPER_HOME /ビン
ソース〜/ .bashrcの

CDのZK / confに
CP zoo_sample.cfg zoo.cfg 

VI zoo.cfg

  レビュー:

DATADIR =は/ usr / local / ZK /データ

  追加:

server.0 = Eショップ-cache01:3888:2888	 
server.1 = Eショップ-cache02:2888:3888 
server.2 = Eショップ-cache03:2888:3888

  

CDのZK
mkdirデータ
CDデータ

VIのMYID
0

ZooKeeperのを設定するための上記の手順に従って、他の2つのノードのSCPの.bashrcを使用し、Eショップ-cache02にコピーとEショップ-cache03をすることができるZK。唯一の違いは、それぞれ識別番号1と2に設定されています。

zkServer.sh開始:彼らは3台のマシン上で実行されました。
ZooKeeperの状態チェック:zkServer.sh状態を、リーダー、2人のフォロワーでなければなりません
JPS:プロセスがQuromPeerMainたかどうかを確認するために3つのノード
 
2、カフカクラスタセットアップ
Scalaは、スカラで書かれているプログラミング言語、今より火災、そのようなスパーク(計算エンジン)の内部の大面積として大量のデータであります

Scalaの-2.11.4.tgz使用WinSCPのは、/ usr / localディレクトリにコピーします。
Scalaの-2.11.4.tgz -zxvfタール:解凍するScalaの-2.11.4.tgz。
Scalaのディレクトリには、名前を変更するには:MVのscala-2.11.4のスカラを

Scalaの関連の環境変数の設定
私たち〜/ .bashrcに
輸出SCALA_HOME =は/ usr / local /スカラ
輸出PATH = $ SCALA_HOME / binに
ソース〜/ .bashrcに

スカラ-version:インストールが成功スカラ座であったかどうかを確認してください

他のマシン上で、上記の手順に従えばスカラ座にインストールされています。そして、別の二つのマシンにコピーするの.bashrcのscpスカラ座を使用することができます。
kafka_2.9.2-0.8.1.tgzのWinSCPを使用しては、/ usr / localディレクトリにコピーします。
タール-zxvf kafka_2.9.2-0.8.1.tgz:kafka_2.9.2-0.8.1.tgz解凍のために。
カフカのディレクトリには、名前を変更するには:MV kafka_2.9.2-0.8.1カフカを

コンフィギュレーション・カフカ
我々/usr/local/kafka/config/server.properties
broker.id:整数次の成長、0,1,2、クラスタブローカーの一意のID
zookeeper.connect = 192.168.31.187:2181,192.168.31.19:2181:2181,192.168.31.227

インストールSLF4J
/ usr / localディレクトリにアップロードslf4j-1.7.6.zip
解凍slf4j-1.7.6.zip
カフカへのディレクトリのコピーSLF4J-NOP-1.7.6.jar SLF4JのLIBS

カフカ認識されていないVMオプション「UseCompressedOopsか」の問題を解決します

我々は/usr/local/kafka/bin/kafka-run-class.sh

もし[ "$ KAFKA_JVM_PERFORMANCE_OPTS" -z]; それから
KAFKA_JVM_PERFORMANCE_OPTS = " - サーバー-XX:+ UseCompressedOops -XX:+ UseParNewGC -XX:+ UseConcMarkSweepGCを-XX:+ CMSClassUnloadingEnabled -XX:+ CMSScavengeBeforeRemark -XX:+ DisableExplicitGCます。-Djava.awt.headless = true" を
されます

-XXを削除:+ UseCompressedOopsに

上記の追加の手順に従えばカフカ二台のマシンに搭載されています。カフカのSCPを使用し、別のマシンにコピーします。
唯一の違いは、broker.idでserver.propertiesは、1と2に設定することです

3台のマシン上のカフカディレクトリでは、それぞれ、次のコマンドを実行します。nohupをビン/ kafka-server-start.shのconfig / server.properties&

JPSは、スタートの成功を確認するために使用します

成功を構築カフカかどうかを確認するための基本的なコマンドを使用します

ビン/ kafka-topics.sh --zookeeper 192.168.31.187:2181,192.168.31.19:2181,192.168.31.227:2181 --topicテスト--replication-因子1 --partitions 1 --create

ビン/ kafka-console-producer.sh --brokerリスト192.168.31.181:9092,192.168.31.19:9092,192.168.31.227:9092 --topicテスト

ビン/ kafka-console-consumer.sh --zookeeper 192.168.31.187:2181,192.168.31.19:2181,192.168.31.227:2181 --topicテスト--from-始まり

おすすめ

転載: www.cnblogs.com/sunliyuan/p/11366478.html