目次
Zookeeperのインストールと構成の詳細
この記事で紹介するZookeeperは、3.2.2の安定バージョンに基づいています。最新バージョンは、公式Webサイトhttp://hadoop.apache.org/zookeeper/から入手できます 。Zookeeperのインストールは非常に簡単です。スタンドアロンモードとクラスターモードからのものになります2つの側面で、Zookeeperのインストールと構成を紹介します。
スタンドアロンモード
スタンドアロンインストールは非常に簡単です。Zookeeper圧縮パッケージを入手して、次のようなディレクトリに解凍するだけです。/home/zookeeper-3.2.2、Zookeeperの起動スクリプトはbinディレクトリにあり、Linuxの起動スクリプトははzkServer.shです。3.2.2このバージョンのZookeeperは、Windowsで起動スクリプトを提供しません。したがって、WindowsでZookeeperを起動する場合は、リスト1に示すように、手動でスクリプトを作成する必要があります。
リスト1.WindowsでのZookeeper起動スクリプト
1
2
3
4
5
6
7
8
9
10
11
12
13
setlocal
set ZOOCFGDIR=%~dp0%..\conf
set ZOO_LOG_DIR=%~dp0%..
set ZOO_LOG4J_PROP=INFO,CONSOLE
set CLASSPATH=%ZOOCFGDIR%
set CLASSPATH=%~dp0..\*;%~dp0..\lib\*;%CLASSPATH%
set CLASSPATH=%~dp0..\build\classes;%~dp0..\build\lib\*;%CLASSPATH%
set ZOOCFG=%ZOOCFGDIR%\zoo.cfg
set ZOOMAIN=org.apache.zookeeper.server.ZooKeeperServerMain
java "-Dzookeeper.log.dir=%ZOO_LOG_DIR%" "-Dzookeeper.root.logger=%ZOO_LOG4J_PROP%"
-cp "%CLASSPATH%" %ZOOMAIN% "%ZOOCFG%" %*
endlocal
起動スクリプトを実行する前に、構成する必要のあるいくつかの基本的な構成項目があります。Zookeeper構成ファイルはconfディレクトリにあります。このディレクトリにはzoo_sample.cfgとlog4j.propertiesがあります。必要なのは次のことだけです。 zoo_sample.cfgの名前を変更します。これはzoo.cfgです。これは、Zookeeperが起動時にこのファイルをデフォルトの構成ファイルとして検出するためです。以下は、この構成ファイル内の各構成項目の意味の詳細な紹介です。
1
2
3
tickTime=2000
dataDir=D:/devtools/zookeeper-3.2.2/build
clientPort=2181
- tickTime:この時間は、Zookeeperサーバー間、またはクライアントとサーバー間のハートビートを維持するための時間間隔として使用されます。つまり、ハートビートはティックタイムごとに送信されます。
- dataDir:名前が示すように
- これは、Zookeeperがデータを保存するディレクトリです。デフォルトでは、Zookeeperはこのディレクトリにデータを書き込むためのログファイルを保存します。
- clientPort:このポートは、クライアントがZookeeperサーバーに接続するためのポートです。Zookeeperはこのポートをリッスンし、クライアントのアクセス要求を受け入れます。
これらの構成項目を構成したら、今すぐZookeeperを開始できます。開始後、Zookeeperが既にサービスを提供しているかどうかを確認します。netstat-anoコマンドを使用して、構成したclientPortポート番号がサービスをリッスンしているかどうかを確認できます。
クラスターモード
Zookeeperは、単一のマシンでサービスを提供できるだけでなく、複数のマシンをサポートしてクラスターを形成し、サービスを提供することもできます。実際、Zookeeperは別の疑似クラスター方式もサポートしています。つまり、1台の物理マシンで複数のZookeeperインスタンスを実行できます。クラスターモードのインストールと構成については、以下で紹介します。
Zookeeperのクラスターモードのインストールと構成はそれほど複雑ではありません。必要なのは、いくつかの構成項目を追加することだけです。上記の3つの構成項目に加えて、クラスターモードでは次の構成項目を追加する必要があります。
1
2
3
4
initLimit=5
syncLimit=2
server.1=192.168.211.1:2888:3888
server.2=192.168.211.2:2888:3888
- initLimit:この構成アイテムは、クライアントを受け入れるようにZookeeperを構成するために使用されます(ここに記載されているクライアントは、Zookeeperサーバーに接続しているユーザーのクライアントではなく、Zookeeperサーバークラスターのリーダーに接続されているフォロワーサーバーです)。間隔。10ハートビートの長さ(つまりtickTime)が経過した後、Zookeeperサーバーがクライアントからの戻りメッセージを受信しなかった場合は、クライアント接続が失敗したことを示しています。合計時間は5 * 2000 = 10秒です。
- syncLimit:この構成アイテムは、リーダーとフォロワーの間で送信されるメッセージの長さ、要求時間と応答時間を識別します。最長はtickTimeの長さを超えることはできず、合計時間は2 * 2000 = 4秒です。
- server.A = B:C:D:ここで、Aは番号であり、どのサーバーがこの番号であるかを示します。BはこのサーバーのIPアドレスです。Cは、このサーバーがクラスター内のリーダーサーバーと情報を交換するためのポートです。 ; Dこれは、クラスター内のリーダーサーバーがハングアップした場合に、新しいリーダーを再選して選択するためのポートが必要であることを意味します。このポートは、選出が実行されるときに相互に通信するために使用されるポートです。疑似クラスター構成方式の場合、Bが同じであるため、異なるZookeeperインスタンスの通信ポート番号を同じにすることはできません。そのため、異なるポート番号を割り当てる必要があります。
zoo.cfg構成ファイルの変更に加えて、ファイルmyidをクラスターモードで構成する必要があります。このファイルはdataDirディレクトリにあります。このファイルにはAの値であるデータがあります。Zookeeperが起動すると、次のようになります。このファイルを取得し、ファイルを内部に取得します。データはzoo.cfgの構成情報と比較され、どのサーバーであるかが判別されます。
データ・モデル
Zookeeperは、図1に示すように、標準のファイルシステムと非常によく似た階層データ構造を維持します。
図1Zookeeperのデータ構造
Zookeeperのデータ構造には、次の特徴があります。
- NameServiceなどの各サブディレクトリアイテムはznodeと呼ばれ、このznodeは、それが配置されているパスによって一意に識別されます。たとえば、Server1はznodeによって/ NameService / Server1として識別されます。
- znodeはサブノードディレクトリを持つことができ、各znodeはデータを格納できます。EPHEMERALタイプのディレクトリノードはサブノードディレクトリを持つことができないことに注意してください。
- znodeにはバージョンがあり、各znodeに格納されるデータには複数のバージョンを含めることができます。つまり、データの複数のコピーを1つのアクセスパスに格納できます。
- znodeは一時ノードにすることができます。znodeを作成したクライアントがサーバーとの接続を失うと、znodeも自動的に削除されます。Zookeeperのクライアントとサーバーの通信は長い接続を使用し、各クライアントとサーバーはハートビートを介して接続を維持します。 。接続状態はセッションと呼ばれます。znodeが一時ノードの場合、セッションは無効になり、znodeは削除されます。
- znodeのディレクトリ名は自動的に番号が付けられます。App1がすでに存在する場合、再度作成されると、自動的にApp2という名前になります。
- このディレクトリノードに保存されているデータの変更、サブノードディレクトリの変更など、znodeを監視できます。変更が行われると、監視を設定したクライアントに通知できます。これがコア機能です。 Zookeeperの多くの機能は、この機能に基づいています。はい、後で一般的なアプリケーションシナリオで紹介される例があります。
Zookeeperの使用方法
分散サービスフレームワークとして、Zookeeperは主に分散クラスター内のアプリケーションシステムの整合性の問題を解決するために使用されます。ファイルシステムと同様のディレクトリノードツリーに基づいてデータストレージを提供できますが、Zookeeperは特にデータの保存には使用されません。はい、その機能は主に、保存されたデータのステータス変更を維持および監視するために使用されます。これらのデータ状態の変化を監視することで、データベースのクラスター管理を実現できます。Zookeeperが解決できる典型的な問題については、後で詳しく説明します。ここでは、まず、Zookeeperの操作インターフェースと簡単な使用例を紹介します。
一般的なインターフェースのリスト
クライアントは、org.apache.zookeeper。ZooKeeperのインスタンスを作成し、このクラスによって提供されるインターフェースを呼び出してサーバーと対話することにより、Zookeeperサーバーに接続できます。
前述のように、ZooKeeperは主に、ディレクトリノードツリーに格納されているデータの状態を維持および監視するために使用されます。ZooKeeperを操作できるのは、ディレクトリノードの作成やデータの設定など、ディレクトリノードツリーの操作と同様です。ディレクトリノード。、特定のディレクトリノードのすべてのサブディレクトリノードを取得し、特定のディレクトリノードのアクセス許可を設定し、このディレクトリノードのステータス変更を監視します。
これらのインターフェースを次の表に示します。
表1org.apache.zookeeper。ZooKeeperメソッドリスト
メソッド名 | メソッド関数の説明 |
---|---|
文字列作成(文字列 パス、byte []データ、 リスト< ACL > acl、 CreateMode createMode) | 指定されたディレクトリノードパスを作成し、そのデータを設定します。CreateMode は、4種類のディレクトリノードを識別します。PERSISTENT:永続ディレクトリノード、このディレクトリノードに保存されているデータは失われません; PERSISTENT_SEQUENTIAL:シーケンスの自動番号付けディレクトリノード、この種類ディレクトリノードの数は、現在存在するノードの数に応じて自動的に1ずつ増加し、正常に作成されたディレクトリノードの名前をクライアントに返します。EPHEMERAL:一時ディレクトリノード、ノードが作成されると、クライアントまた、サーバーポートもセッションタイムアウトです。この種のノードは自動的に削除されます。EPHEMERAL_SEQUENTIAL:ノードの一時的な自動番号付け |
統計が存在します(文字列 パス、ブールウォッチ) | パスが存在するかどうかを決定し、このディレクトリノードを監視するかどうかを設定します。ここでは、ウォッチャZooKeeperのインスタンスが作成されるときにウォッチャが指定されている。存在する方法はまた、特定のウォッチャを指定することができ、過負荷方法を有します |
統計が存在します(文字列 パス、 ウォッチャー ウォッチャー) | 重载方法,这里给某个目录节点设置特定的 watcher,Watcher 在 ZooKeeper 是一个核心功能,Watcher 可以监控目录节点的数据变化以及子目录的变化,一旦这些状态发生变化,服务器就会通知所有设置在这个目录节点上的 Watcher,从而每个客户端都很快知道它所关注的目录节点的状态发生变化,而做出相应的反应 |
void delete(String path, int version) | 删除 path 对应的目录节点,version 为 -1 可以匹配任何版本,也就删除了这个目录节点所有数据 |
List<String> getChildren(String path, boolean watch) | 获取指定 path 下的所有子目录节点,同样 getChildren方法也有一个重载方法可以设置特定的 watcher 监控子节点的状态 |
StatsetData(String path, byte[] data, int version) | 给 path 设置数据,可以指定这个数据的版本号,如果 version 为 -1 怎可以匹配任何版本 |
byte[] getData(String path, boolean watch, Stat stat) | 获取这个 path 对应的目录节点存储的数据,数据的版本等信息可以通过 stat 来指定,同时还可以设置是否监控这个目录节点数据的状态 |
void addAuthInfo(String scheme, byte[] auth) | 客户端将自己的授权信息提交给服务器,服务器将根据这个授权信息验证客户端的访问权限。 |
StatsetACL(String path, List<ACL> acl, int version) | 给某个目录节点重新设置访问权限,需要注意的是 Zookeeper 中的目录节点权限不具有传递性,父目录节点的权限不能传递给子目录节点。目录节点 ACL 由两部分组成:perms 和 id。 Perms 有 ALL、READ、WRITE、CREATE、DELETE、ADMIN 几种 而 id 标识了访问目录节点的身份列表,默认情况下有以下两种: ANYONE_ID_UNSAFE = new Id("world", "anyone") 和 AUTH_IDS = new Id("auth", "") 分别表示任何人都可以访问和创建者拥有访问权限。 |
List<ACL> getACL(String path, Stat stat) | 获取某个目录节点的访问权限列表 |
除了以上这些上表中列出的方法之外还有一些重载方法,如都提供了一个回调类的重载方法以及可以设置特定 Watcher 的重载方法,具体的方法可以参考 org.apache.zookeeper. ZooKeeper 类的 API 说明。
基本操作
下面给出基本的操作 ZooKeeper 的示例代码,这样你就能对 ZooKeeper 有直观的认识了。下面的清单包括了创建与 ZooKeeper 服务器的连接以及最基本的数据操作:
清单 2. ZooKeeper 基本的操作示例
// 创建一个与服务器的连接
ZooKeeper zk = new ZooKeeper("localhost:" + CLIENT_PORT,
ClientBase.CONNECTION_TIMEOUT, new Watcher() {
// 监控所有被触发的事件
public void process(WatchedEvent event) {
System.out.println("已经触发了" + event.getType() + "事件!");
}
});
// 创建一个目录节点
zk.create("/testRootPath", "testRootData".getBytes(), Ids.OPEN_ACL_UNSAFE,
CreateMode.PERSISTENT);
// 创建一个子目录节点
zk.create("/testRootPath/testChildPathOne", "testChildDataOne".getBytes(),
Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);
System.out.println(new String(zk.getData("/testRootPath",false,null)));
// 取出子目录节点列表
System.out.println(zk.getChildren("/testRootPath",true));
// 修改子目录节点数据
zk.setData("/testRootPath/testChildPathOne","modifyChildDataOne".getBytes(),-1);
System.out.println("目录节点状态:["+zk.exists("/testRootPath",true)+"]");
// 创建另外一个子目录节点
zk.create("/testRootPath/testChildPathTwo", "testChildDataTwo".getBytes(),
Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);
System.out.println(new String(zk.getData("/testRootPath/testChildPathTwo",true,null)));
// 删除子目录节点
zk.delete("/testRootPath/testChildPathTwo",-1);
zk.delete("/testRootPath/testChildPathOne",-1);
// 删除父目录节点
zk.delete("/testRootPath",-1);
// 关闭连接
zk.close();
输出的结果如下:
已经触发了 None 事件!
testRootData
[testChildPathOne]
目录节点状态:[5,5,1281804532336,1281804532336,0,1,0,0,12,1,6]
已经触发了 NodeChildrenChanged 事件!
testChildDataTwo
已经触发了 NodeDeleted 事件!
已经触发了 NodeDeleted 事件!
当对目录节点监控状态打开时,一旦目录节点的状态发生变化,Watcher 对象的 process 方法就会被调用。
ZooKeeper 典型的应用场景
Zookeeper 从设计模式角度来看,是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper 就将负责通知已经在 Zookeeper 上注册的那些观察者做出相应的反应,从而实现集群中类似 Master/Slave 管理模式,关于 Zookeeper 的详细架构等内部细节可以阅读 Zookeeper 的源码
下面详细介绍这些典型的应用场景,也就是 Zookeeper 到底能帮我们解决那些问题?下面将给出答案。
统一命名服务(Name Service)
分布式应用中,通常需要有一套完整的命名规则,既能够产生唯一的名称又便于人识别和记住,通常情况下用树形的名称结构是一个理想的选择,树形的名称结构是一个有层次的目录结构,既对人友好又不会重复。说到这里你可能想到了 JNDI,没错 Zookeeper 的 Name Service 与 JNDI 能够完成的功能是差不多的,它们都是将有层次的目录结构关联到一定资源上,但是 Zookeeper 的 Name Service 更加是广泛意义上的关联,也许你并不需要将名称关联到特定资源上,你可能只需要一个不会重复名称,就像数据库中产生一个唯一的数字主键一样。
Name Service 已经是 Zookeeper 内置的功能,你只要调用 Zookeeper 的 API 就能实现。如调用 create 接口就可以很容易创建一个目录节点。
配置管理(Configuration Management)
配置的管理在分布式应用环境中很常见,例如同一个应用系统需要多台 PC Server 运行,但是它们运行的应用系统的某些配置项是相同的,如果要修改这些相同的配置项,那么就必须同时修改每台运行这个应用系统的 PC Server,这样非常麻烦而且容易出错。
像这样的配置信息完全可以交给 Zookeeper 来管理,将配置信息保存在 Zookeeper 的某个目录节点中,然后将所有需要修改的应用机器监控配置信息的状态,一旦配置信息发生变化,每台应用机器就会收到 Zookeeper 的通知,然后从 Zookeeper 获取新的配置信息应用到系统中。
图 2. 配置管理结构图
集群管理(Group Membership)
Zookeeper 能够很容易的实现集群管理的功能,如有多台 Server 组成一个服务集群,那么必须要一个“总管”知道当前集群中每台机器的服务状态,一旦有机器不能提供服务,集群中其它集群必须知道,从而做出调整重新分配服务策略。同样当增加集群的服务能力时,就会增加一台或多台 Server,同样也必须让“总管”知道。
Zookeeper 不仅能够帮你维护当前的集群中机器的服务状态,而且能够帮你选出一个“总管”,让这个总管来管理集群,这就是 Zookeeper 的另一个功能 Leader Election。
它们的实现方式都是在 Zookeeper 上创建一个 EPHEMERAL 类型的目录节点,然后每个 Server 在它们创建目录节点的父目录节点上调用 getChildren(String path, boolean watch) 方法并设置 watch 为 true,由于是 EPHEMERAL 目录节点,当创建它的 Server 死去,这个目录节点也随之被删除,所以 Children 将会变化,这时 getChildren上的 Watch 将会被调用,所以其它 Server 就知道已经有某台 Server 死去了。新增 Server 也是同样的原理。
Zookeeper 如何实现 Leader Election,也就是选出一个 Master Server。和前面的一样每台 Server 创建一个 EPHEMERAL 目录节点,不同的是它还是一个 SEQUENTIAL 目录节点,所以它是个 EPHEMERAL_SEQUENTIAL 目录节点。之所以它是 EPHEMERAL_SEQUENTIAL 目录节点,是因为我们可以给每台 Server 编号,我们可以选择当前是最小编号的 Server 为 Master,假如这个最小编号的 Server 死去,由于是 EPHEMERAL 节点,死去的 Server 对应的节点也被删除,所以当前的节点列表中又出现一个最小编号的节点,我们就选择这个节点为当前 Master。这样就实现了动态选择 Master,避免了传统意义上单 Master 容易出现单点故障的问题。
图 3. 集群管理结构图
这部分的示例代码如下,完整的代码请看附件:
清单 3. Leader Election 关键代码
void findLeader() throws InterruptedException {
byte[] leader = null;
try {
leader = zk.getData(root + "/leader", true, null);
} catch (Exception e) {
logger.error(e);
}
if (leader != null) {
following();
} else {
String newLeader = null;
try {
byte[] localhost = InetAddress.getLocalHost().getAddress();
newLeader = zk.create(root + "/leader", localhost,
ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
} catch (Exception e) {
logger.error(e);
}
if (newLeader != null) {
leading();
} else {
mutex.wait();
}
}
}
共享锁(Locks)
共享锁在同一个进程中很容易实现,但是在跨进程或者在不同 Server 之间就不好实现了。Zookeeper 却很容易实现这个功能,实现方式也是需要获得锁的 Server 创建一个 EPHEMERAL_SEQUENTIAL 目录节点,然后调用 getChildren方法获取当前的目录节点列表中最小的目录节点是不是就是自己创建的目录节点,如果正是自己创建的,那么它就获得了这个锁,如果不是那么它就调用 exists(String path, boolean watch) 方法并监控 Zookeeper 上目录节点列表的变化,一直到自己创建的节点是列表中最小编号的目录节点,从而获得锁,释放锁很简单,只要删除前面它自己所创建的目录节点就行了。
图 4. Zookeeper 实现 Locks 的流程图
同步锁的实现代码如下,完整的代码请看附件:
清单 4. 同步锁的关键代码
void getLock() throws KeeperException, InterruptedException{
List<String> list = zk.getChildren(root, false);
String[] nodes = list.toArray(new String[list.size()]);
Arrays.sort(nodes);
if(myZnode.equals(root+"/"+nodes[0])){
doAction();
}
else{
waitForLock(nodes[0]);
}
}
void waitForLock(String lower) throws InterruptedException, KeeperException {
Stat stat = zk.exists(root + "/" + lower,true);
if(stat != null){
mutex.wait();
}
else{
getLock();
}
}
队列管理
Zookeeper 可以处理两种类型的队列:
- 当一个队列的成员都聚齐时,这个队列才可用,否则一直等待所有成员到达,这种是同步队列。
- 队列按照 FIFO 方式进行入队和出队操作,例如实现生产者和消费者模型。
同步队列用 Zookeeper 实现的实现思路如下:
创建一个父目录 /synchronizing,每个成员都监控标志(Set Watch)位目录 /synchronizing/start 是否存在,然后每个成员都加入这个队列,加入队列的方式就是创建 /synchronizing/member_i 的临时目录节点,然后每个成员获取 / synchronizing 目录的所有目录节点,也就是 member_i。判断 i 的值是否已经是成员的个数,如果小于成员个数等待 /synchronizing/start 的出现,如果已经相等就创建 /synchronizing/start。
用下面的流程图更容易理解:
图 5. 同步队列流程图
同步队列的关键代码如下,完整的代码请看附件:
清单 5. 同步队列
void addQueue() throws KeeperException, InterruptedException{
zk.exists(root + "/start",true);
zk.create(root + "/" + name, new byte[0], Ids.OPEN_ACL_UNSAFE,
CreateMode.EPHEMERAL_SEQUENTIAL);
synchronized (mutex) {
List<String> list = zk.getChildren(root, false);
if (list.size() < size) {
mutex.wait();
} else {
zk.create(root + "/start", new byte[0], Ids.OPEN_ACL_UNSAFE,
CreateMode.PERSISTENT);
}
}
}
当队列没满是进入 wait(),然后会一直等待 Watch 的通知,Watch 的代码如下:
1 2 3 4 5 6 7 8 |
|
FIFO 队列用 Zookeeper 实现思路如下:
实现的思路也非常简单,就是在特定的目录下创建 SEQUENTIAL 类型的子目录 /queue_i,这样就能保证所有成员加入队列时都是有编号的,出队列时通过 getChildren( ) 方法可以返回当前所有的队列中的元素,然后消费其中最小的一个,这样就能保证 FIFO。
下面是生产者和消费者这种队列形式的示例代码,完整的代码请看附件:
清单 6. 生产者代码
boolean produce(int i) throws KeeperException, InterruptedException{
ByteBuffer b = ByteBuffer.allocate(4);
byte[] value;
b.putInt(i);
value = b.array();
zk.create(root + "/element", value, ZooDefs.Ids.OPEN_ACL_UNSAFE,
CreateMode.PERSISTENT_SEQUENTIAL);
return true;
}
清单 7. 消费者代码
int consume() throws KeeperException, InterruptedException{
int retvalue = -1;
Stat stat = null;
while (true) {
synchronized (mutex) {
List<String> list = zk.getChildren(root, true);
if (list.size() == 0) {
mutex.wait();
} else {
Integer min = new Integer(list.get(0).substring(7));
for(String s : list){
Integer tempValue = new Integer(s.substring(7));
if(tempValue < min) min = tempValue;
}
byte[] b = zk.getData(root + "/element" + min,false, stat);
zk.delete(root + "/element" + min, 0);
ByteBuffer buffer = ByteBuffer.wrap(b);
retvalue = buffer.getInt();
return retvalue;
}
}
}
}
结束语
Zookeeper 作为 Hadoop 项目中的一个子项目,是 Hadoop 集群管理的一个必不可少的模块,它主要用来控制集群中的数据,如它管理 Hadoop 集群中的 NameNode,还有 Hbase 中 Master Election、Server 之间状态同步等。
この記事では、Zookeeperの基本的な知識を紹介し、いくつかの典型的なアプリケーションシナリオを紹介します。これらはZookeeperの基本機能です。最も重要なことは、Zookeeperが、階層ディレクトリツリーデータ構造に基づいてツリー内のノードを効果的に管理する優れた分散クラスター管理メカニズムを提供することです。上記のいくつかの一般的なアプリケーションシナリオだけでなく、データ管理モデルを設計することもできます。
元のリンク:https://www.ibm.com/developerworks/cn/opensource/os-cn-zookeeper/index.html Xu Lingbo