Zookeeper, un framework de services distribués - gérez les données dans un environnement distribué

table des matières

Détails d'installation et de configuration de Zookeeper

Mode autonome

Mode cluster

Modèle de données

Comment utiliser Zookeeper

Liste des interfaces communes

Opération de base

Scénarios d'application typiques de ZooKeeper

Service de dénomination unifié (service de noms)

Gestion de la configuration

Gestion de cluster (appartenance à un groupe)

Verrous partagés (verrous)

Gestion des files d'attente

Remarques finales


Détails d'installation et de configuration de Zookeeper

Le Zookeeper présenté dans cet article est basé sur la version stable de 3.2.2. La dernière version peut être obtenue via le site officiel  http://hadoop.apache.org/zookeeper/ . L'installation de Zookeeper est très simple. Ce qui suit sera du mode autonome et du mode cluster Deux aspects introduisent l'installation et la configuration de Zookeeper.

Mode autonome

L'installation autonome est très simple, il suffit d'obtenir le package compressé Zookeeper et de le décompresser dans un répertoire tel que: /home/zookeeper-3.2.2, le script de démarrage de Zookeeper est dans le répertoire bin, et le script de démarrage sous Linux est zkServer.sh.3.2.2 Cette version de Zookeeper ne fournit pas de script de démarrage sous Windows, donc si vous voulez démarrer Zookeeper sous Windows, vous devez en écrire un manuellement, comme indiqué dans le Listing 1:

Listing 1. Script de démarrage de Zookeeper sous Windows

1

2

3

4

5

6

7

8

9

dix

11

12

13

setlocal

set ZOOCFGDIR=%~dp0%..\conf

set ZOO_LOG_DIR=%~dp0%..

set ZOO_LOG4J_PROP=INFO,CONSOLE

set CLASSPATH=%ZOOCFGDIR%

 

set CLASSPATH=%~dp0..\*;%~dp0..\lib\*;%CLASSPATH%

set CLASSPATH=%~dp0..\build\classes;%~dp0..\build\lib\*;%CLASSPATH%

set ZOOCFG=%ZOOCFGDIR%\zoo.cfg

set ZOOMAIN=org.apache.zookeeper.server.ZooKeeperServerMain

java "-Dzookeeper.log.dir=%ZOO_LOG_DIR%" "-Dzookeeper.root.logger=%ZOO_LOG4J_PROP%"

-cp "%CLASSPATH%" %ZOOMAIN% "%ZOOCFG%" %*

endlocal

Avant d'exécuter le script de démarrage, quelques éléments de configuration de base doivent être configurés. Le fichier de configuration de Zookeeper se trouve dans le répertoire conf. Il y a zoo_sample.cfg et log4j.properties dans ce répertoire. Il vous suffit de renommer zoo_sample.cfg Il s'agit de zoo.cfg, car Zookeeper trouvera ce fichier comme fichier de configuration par défaut au démarrage. Ce qui suit est une introduction détaillée à la signification de chaque élément de configuration dans ce fichier de configuration.

1

2

3

tickTime=2000

dataDir=D:/devtools/zookeeper-3.2.2/build

clientPort=2181

  • tickTime: Cette heure est utilisée comme intervalle de temps pour maintenir les battements de cœur entre les serveurs Zookeeper ou entre le client et le serveur, c'est-à-dire qu'un battement de cœur sera envoyé à chaque tickTime.
  • dataDir: comme son nom l'indique
  • C'est le répertoire dans lequel Zookeeper enregistre les données. Par défaut, Zookeeper enregistre les fichiers journaux pour l'écriture des données dans ce répertoire.
  • clientPort: Ce port est le port permettant au client de se connecter au serveur Zookeeper. Zookeeper écoutera ce port et acceptera la demande d'accès du client.

Une fois ces éléments de configuration configurés, vous pouvez démarrer Zookeeper maintenant. Après le démarrage, vérifiez si Zookeeper est déjà en service. Vous pouvez utiliser la commande netstat-ano pour vérifier si le numéro de port clientPort que vous avez configuré écoute le service.

 

Mode cluster

Zookeeper peut non seulement fournir des services sur une seule machine, mais également prendre en charge plusieurs machines pour former un cluster afin de fournir des services. En fait, Zookeeper prend également en charge une autre méthode de pseudo-cluster, c'est-à-dire que plusieurs instances de Zookeeper peuvent être exécutées sur une machine physique. L'installation et la configuration du mode cluster seront présentées ci-dessous.

L'installation et la configuration du mode cluster de Zookeeper n'est pas très compliquée, il suffit d'ajouter quelques éléments de configuration. En plus des trois éléments de configuration ci-dessus, le mode cluster doit ajouter les éléments de configuration suivants:

1

2

3

4

initLimit=5

syncLimit=2

server.1=192.168.211.1:2888:3888

server.2=192.168.211.2:2888:3888

  • initLimit: Cet élément de configuration est utilisé pour configurer Zookeeper pour accepter les clients (le client mentionné ici n'est pas le client de l'utilisateur se connectant au serveur Zookeeper, mais le serveur suiveur connecté au Leader dans le cluster de serveurs Zookeeper). Le nombre de pulsations intervalles. Lorsque le serveur Zookeeper n'a pas reçu le message de retour du client après la durée de 10 battements de cœur (c'est-à-dire tickTime), cela indique que la connexion client a échoué. La durée totale est de 5 * 2000 = 10 secondes
  • syncLimit: Cet élément de configuration identifie la longueur du message envoyé entre le leader et le suiveur, le temps de demande et de réponse, le plus long ne peut pas dépasser la longueur de tickTime, la durée totale est de 2 * 2000 = 4 secondes
  • server.A = B: C: D: où A est un nombre, qui indique quel serveur est ce numéro; B est l'adresse IP de ce serveur; C est le port par lequel ce serveur échange des informations avec le serveur Leader du cluster ; D Cela signifie que si le serveur Leader du cluster raccroche, un port est nécessaire pour réélire et sélectionner un nouveau leader, et ce port est le port utilisé pour communiquer entre eux lorsque l'élection est effectuée. S'il s'agit d'une méthode de configuration de pseudo-cluster, puisque B est le même, les numéros de port de communication des différentes instances de Zookeeper ne peuvent pas être les mêmes, donc différents numéros de port doivent leur être attribués.

Outre la modification du fichier de configuration zoo.cfg, un fichier myid doit être configuré en mode cluster. Ce fichier se trouve dans le répertoire dataDir. Ce fichier contient une donnée qui a la valeur A. Lorsque Zookeeper démarre, il lit ce fichier et récupérez le fichier à l'intérieur. Les données sont comparées aux informations de configuration dans zoo.cfg pour déterminer de quel serveur il s'agit.

Modèle de données

Zookeeper maintiendra une structure de données hiérarchique, qui est très similaire à un système de fichiers standard, comme le montre la figure 1:

Figure 1 Structure de données Zookeeper

  Ã¾ 1 gardien de zoo æ ° æ®ç »æ

La structure de données de Zookeeper présente les caractéristiques suivantes:

  1. Chaque élément de sous-répertoire tel que NameService est appelé un znode, et ce znode est identifié de manière unique par le chemin où il se trouve. Par exemple, Server1 est identifié par le znode comme / NameService / Server1
  2. Un znode peut avoir des répertoires de sous-nœuds et chaque znode peut stocker des données. Notez que les nœuds de répertoire de type EPHEMERAL ne peuvent pas avoir de répertoires de sous-nœuds
  3. Il existe des versions de znode et les données stockées dans chaque znode peuvent avoir plusieurs versions, c'est-à-dire que plusieurs copies de données peuvent être stockées dans un chemin d'accès
  4. Le znode peut être un nœud temporaire. Une fois que le client qui a créé le znode perd le contact avec le serveur, le znode sera également supprimé automatiquement. La communication entre le client et le serveur de Zookeeper utilise une longue connexion, et chaque client et serveur maintiennent une connexion via une pulsation . L'état de connexion est appelé session. Si le znode est un nœud temporaire, la session devient invalide et le znode est supprimé.
  5. Le nom du répertoire de znode peut être numéroté automatiquement. Si App1 existe déjà, si elle est créée à nouveau, elle sera automatiquement nommée App2.
  6. Le znode peut être surveillé, y compris la modification des données stockées dans ce nœud de répertoire, le changement du répertoire du sous-nœud, etc. Une fois la modification effectuée, le client qui définit la surveillance peut être notifié. C'est la fonction principale de Zookeeper. De nombreuses fonctions de Zookeeper sont basées sur cette fonctionnalité. Oui, des exemples seront introduits dans des scénarios d'application typiques plus tard

Comment utiliser Zookeeper

En tant que cadre de service distribué, Zookeeper est principalement utilisé pour résoudre le problème de cohérence des systèmes d'application dans les clusters distribués. Il peut fournir un stockage de données basé sur une arborescence de nœuds de répertoire similaire au système de fichiers, mais Zookeeper n'est pas utilisé pour stocker des données spécifiquement Oui, sa fonction est principalement utilisée pour maintenir et surveiller les changements d'état de vos données stockées. En surveillant les changements de ces états de données, une gestion de cluster basée sur les données peut être réalisée. Certains problèmes typiques que Zookeeper peut résoudre seront décrits en détail plus tard. Ici, je vais d'abord présenter l'interface de fonctionnement et des exemples d'utilisation simples de Zookeeper.

Liste des interfaces communes

Le client peut se connecter au serveur Zookeeper en créant une instance de org.apache.zookeeper. ZooKeeper, puis en appelant l'interface fournie par cette classe pour interagir avec le serveur.

Comme mentionné précédemment, ZooKeeper est principalement utilisé pour maintenir et surveiller l'état des données stockées dans une arborescence de nœuds de répertoire. Tout ce que nous pouvons utiliser ZooKeeper est similaire au fonctionnement de l'arborescence de nœuds de répertoire, comme la création d'un nœud de répertoire et la définition des données pour un nœud de répertoire., Obtenez tous les nœuds de sous-répertoire d'un certain nœud de répertoire, définissez les autorisations pour un certain nœud de répertoire et surveillez les changements d'état de ce nœud de répertoire.

Ces interfaces sont présentées dans le tableau suivant:

Tableau 1 Liste des méthodes org.apache.zookeeper. ZooKeeper

Nom de la méthode Description de la fonction de la méthode
String create (  chemin de chaîne , octet [] données,  liste < ACL > acl,  CreateMode  createMode) Créez un chemin de nœud de répertoire donné et définissez les données pour celui-ci. CreateMode  identifie quatre types de nœuds de répertoire, à savoir PERSISTENT: nœud de répertoire persistant, les données stockées dans ce nœud de répertoire ne seront pas perdues; PERSISTENT_SEQUENTIAL: séquence automatiquement numérotée nœud de répertoire, ce type du nœud de répertoire augmentera automatiquement de 1 en fonction du nombre de nœuds qui existent actuellement, puis retournera au client le nom du nœud de répertoire qui a été créé avec succès; EPHEMERAL: nœud de répertoire temporaire, une fois le nœud créé, le client et les ports du serveur sont également le délai d'expiration de la session, ce type de nœud sera automatiquement supprimé; EPHEMERAL_SEQUENTIAL: numérotation automatique temporaire des nœuds
La statistique existe (  chemin de chaîne , surveillance booléenne) Déterminez s'il existe un chemin et indiquez si vous souhaitez surveiller ce nœud de répertoire. L'observateur ici est l'observateur spécifié lors de la création de l'instance ZooKeeper. La méthode exists possède également une méthode de surcharge qui peut spécifier un observateur spécifique.
Stat existe ( chaîne  chemin,  Watcher  watcher) 重载方法,这里给某个目录节点设置特定的 watcher,Watcher 在 ZooKeeper 是一个核心功能,Watcher 可以监控目录节点的数据变化以及子目录的变化,一旦这些状态发生变化,服务器就会通知所有设置在这个目录节点上的 Watcher,从而每个客户端都很快知道它所关注的目录节点的状态发生变化,而做出相应的反应
void delete(String path, int version) 删除 path 对应的目录节点,version 为 -1 可以匹配任何版本,也就删除了这个目录节点所有数据
List<StringgetChildren(String path, boolean watch) 获取指定 path 下的所有子目录节点,同样 getChildren方法也有一个重载方法可以设置特定的 watcher 监控子节点的状态
StatsetData(String path, byte[] data, int version) 给 path 设置数据,可以指定这个数据的版本号,如果 version 为 -1 怎可以匹配任何版本
byte[] getData(String path, boolean watch, Stat stat) 获取这个 path 对应的目录节点存储的数据,数据的版本等信息可以通过 stat 来指定,同时还可以设置是否监控这个目录节点数据的状态
void addAuthInfo(String scheme, byte[] auth) 客户端将自己的授权信息提交给服务器,服务器将根据这个授权信息验证客户端的访问权限。
StatsetACL(String path, List<ACL> acl, int version) 给某个目录节点重新设置访问权限,需要注意的是 Zookeeper 中的目录节点权限不具有传递性,父目录节点的权限不能传递给子目录节点。目录节点 ACL 由两部分组成:perms 和 id。
Perms 有 ALL、READ、WRITE、CREATE、DELETE、ADMIN 几种 
而 id 标识了访问目录节点的身份列表,默认情况下有以下两种:
ANYONE_ID_UNSAFE = new Id("world", "anyone") 和 AUTH_IDS = new Id("auth", "") 分别表示任何人都可以访问和创建者拥有访问权限。
List<ACLgetACL(String path, Stat stat) 获取某个目录节点的访问权限列表

除了以上这些上表中列出的方法之外还有一些重载方法,如都提供了一个回调类的重载方法以及可以设置特定 Watcher 的重载方法,具体的方法可以参考 org.apache.zookeeper. ZooKeeper 类的 API 说明。

基本操作

下面给出基本的操作 ZooKeeper 的示例代码,这样你就能对 ZooKeeper 有直观的认识了。下面的清单包括了创建与 ZooKeeper 服务器的连接以及最基本的数据操作:

清单 2. ZooKeeper 基本的操作示例

// 创建一个与服务器的连接
ZooKeeper zk = new ZooKeeper("localhost:" + CLIENT_PORT, 
       ClientBase.CONNECTION_TIMEOUT, new Watcher() { 
           // 监控所有被触发的事件
           public void process(WatchedEvent event) { 
               System.out.println("已经触发了" + event.getType() + "事件!"); 
           } 
       }); 
// 创建一个目录节点
zk.create("/testRootPath", "testRootData".getBytes(), Ids.OPEN_ACL_UNSAFE,
  CreateMode.PERSISTENT); 
// 创建一个子目录节点
zk.create("/testRootPath/testChildPathOne", "testChildDataOne".getBytes(),
  Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT); 
System.out.println(new String(zk.getData("/testRootPath",false,null))); 
// 取出子目录节点列表
System.out.println(zk.getChildren("/testRootPath",true)); 
// 修改子目录节点数据
zk.setData("/testRootPath/testChildPathOne","modifyChildDataOne".getBytes(),-1); 
System.out.println("目录节点状态:["+zk.exists("/testRootPath",true)+"]"); 
// 创建另外一个子目录节点
zk.create("/testRootPath/testChildPathTwo", "testChildDataTwo".getBytes(), 
  Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT); 
System.out.println(new String(zk.getData("/testRootPath/testChildPathTwo",true,null))); 
// 删除子目录节点
zk.delete("/testRootPath/testChildPathTwo",-1); 
zk.delete("/testRootPath/testChildPathOne",-1); 
// 删除父目录节点
zk.delete("/testRootPath",-1); 
// 关闭连接
zk.close();

输出的结果如下:

已经触发了 None 事件!
 testRootData 
 [testChildPathOne] 
目录节点状态:[5,5,1281804532336,1281804532336,0,1,0,0,12,1,6] 
已经触发了 NodeChildrenChanged 事件!
 testChildDataTwo 
已经触发了 NodeDeleted 事件!
已经触发了 NodeDeleted 事件!

当对目录节点监控状态打开时,一旦目录节点的状态发生变化,Watcher 对象的 process 方法就会被调用。

ZooKeeper 典型的应用场景

Zookeeper 从设计模式角度来看,是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper 就将负责通知已经在 Zookeeper 上注册的那些观察者做出相应的反应,从而实现集群中类似 Master/Slave 管理模式,关于 Zookeeper 的详细架构等内部细节可以阅读 Zookeeper 的源码

下面详细介绍这些典型的应用场景,也就是 Zookeeper 到底能帮我们解决那些问题?下面将给出答案。

统一命名服务(Name Service)

分布式应用中,通常需要有一套完整的命名规则,既能够产生唯一的名称又便于人识别和记住,通常情况下用树形的名称结构是一个理想的选择,树形的名称结构是一个有层次的目录结构,既对人友好又不会重复。说到这里你可能想到了 JNDI,没错 Zookeeper 的 Name Service 与 JNDI 能够完成的功能是差不多的,它们都是将有层次的目录结构关联到一定资源上,但是 Zookeeper 的 Name Service 更加是广泛意义上的关联,也许你并不需要将名称关联到特定资源上,你可能只需要一个不会重复名称,就像数据库中产生一个唯一的数字主键一样。

Name Service 已经是 Zookeeper 内置的功能,你只要调用 Zookeeper 的 API 就能实现。如调用 create 接口就可以很容易创建一个目录节点。

配置管理(Configuration Management)

配置的管理在分布式应用环境中很常见,例如同一个应用系统需要多台 PC Server 运行,但是它们运行的应用系统的某些配置项是相同的,如果要修改这些相同的配置项,那么就必须同时修改每台运行这个应用系统的 PC Server,这样非常麻烦而且容易出错。

像这样的配置信息完全可以交给 Zookeeper 来管理,将配置信息保存在 Zookeeper 的某个目录节点中,然后将所有需要修改的应用机器监控配置信息的状态,一旦配置信息发生变化,每台应用机器就会收到 Zookeeper 的通知,然后从 Zookeeper 获取新的配置信息应用到系统中。

图 2. 配置管理结构图

å¾ 2. é置管çç »æå¾

集群管理(Group Membership)

Zookeeper 能够很容易的实现集群管理的功能,如有多台 Server 组成一个服务集群,那么必须要一个“总管”知道当前集群中每台机器的服务状态,一旦有机器不能提供服务,集群中其它集群必须知道,从而做出调整重新分配服务策略。同样当增加集群的服务能力时,就会增加一台或多台 Server,同样也必须让“总管”知道。

Zookeeper 不仅能够帮你维护当前的集群中机器的服务状态,而且能够帮你选出一个“总管”,让这个总管来管理集群,这就是 Zookeeper 的另一个功能 Leader Election。

它们的实现方式都是在 Zookeeper 上创建一个 EPHEMERAL 类型的目录节点,然后每个 Server 在它们创建目录节点的父目录节点上调用 getChildren(String path, boolean watch) 方法并设置 watch 为 true,由于是 EPHEMERAL 目录节点,当创建它的 Server 死去,这个目录节点也随之被删除,所以 Children 将会变化,这时 getChildren上的 Watch 将会被调用,所以其它 Server 就知道已经有某台 Server 死去了。新增 Server 也是同样的原理。

Zookeeper 如何实现 Leader Election,也就是选出一个 Master Server。和前面的一样每台 Server 创建一个 EPHEMERAL 目录节点,不同的是它还是一个 SEQUENTIAL 目录节点,所以它是个 EPHEMERAL_SEQUENTIAL 目录节点。之所以它是 EPHEMERAL_SEQUENTIAL 目录节点,是因为我们可以给每台 Server 编号,我们可以选择当前是最小编号的 Server 为 Master,假如这个最小编号的 Server 死去,由于是 EPHEMERAL 节点,死去的 Server 对应的节点也被删除,所以当前的节点列表中又出现一个最小编号的节点,我们就选择这个节点为当前 Master。这样就实现了动态选择 Master,避免了传统意义上单 Master 容易出现单点故障的问题。

图 3. 集群管理结构图

å¾ 3. é群管çç »æå¾

这部分的示例代码如下,完整的代码请看附件:

清单 3. Leader Election 关键代码

void findLeader() throws InterruptedException { 
       byte[] leader = null; 
       try { 
           leader = zk.getData(root + "/leader", true, null); 
       } catch (Exception e) { 
           logger.error(e); 
       } 
       if (leader != null) { 
           following(); 
       } else { 
           String newLeader = null; 
           try { 
               byte[] localhost = InetAddress.getLocalHost().getAddress(); 
               newLeader = zk.create(root + "/leader", localhost, 
               ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL); 
           } catch (Exception e) { 
               logger.error(e); 
           } 
           if (newLeader != null) { 
               leading(); 
           } else { 
               mutex.wait(); 
           } 
       } 
   }

共享锁(Locks)

共享锁在同一个进程中很容易实现,但是在跨进程或者在不同 Server 之间就不好实现了。Zookeeper 却很容易实现这个功能,实现方式也是需要获得锁的 Server 创建一个 EPHEMERAL_SEQUENTIAL 目录节点,然后调用 getChildren方法获取当前的目录节点列表中最小的目录节点是不是就是自己创建的目录节点,如果正是自己创建的,那么它就获得了这个锁,如果不是那么它就调用 exists(String path, boolean watch) 方法并监控 Zookeeper 上目录节点列表的变化,一直到自己创建的节点是列表中最小编号的目录节点,从而获得锁,释放锁很简单,只要删除前面它自己所创建的目录节点就行了。

图 4. Zookeeper 实现 Locks 的流程图

å¾ 4. Gardien de zoo å®ç ° Serrures çæµç¨å¾

同步锁的实现代码如下,完整的代码请看附件:

清单 4. 同步锁的关键代码

void getLock() throws KeeperException, InterruptedException{ 
       List<String> list = zk.getChildren(root, false); 
       String[] nodes = list.toArray(new String[list.size()]); 
       Arrays.sort(nodes); 
       if(myZnode.equals(root+"/"+nodes[0])){ 
           doAction(); 
       } 
       else{ 
           waitForLock(nodes[0]); 
       } 
   } 
   void waitForLock(String lower) throws InterruptedException, KeeperException {
       Stat stat = zk.exists(root + "/" + lower,true); 
       if(stat != null){ 
           mutex.wait(); 
       } 
       else{ 
           getLock(); 
       } 
   }

队列管理

Zookeeper 可以处理两种类型的队列:

  1. 当一个队列的成员都聚齐时,这个队列才可用,否则一直等待所有成员到达,这种是同步队列。
  2. 队列按照 FIFO 方式进行入队和出队操作,例如实现生产者和消费者模型。

同步队列用 Zookeeper 实现的实现思路如下:

创建一个父目录 /synchronizing,每个成员都监控标志(Set Watch)位目录 /synchronizing/start 是否存在,然后每个成员都加入这个队列,加入队列的方式就是创建 /synchronizing/member_i 的临时目录节点,然后每个成员获取 / synchronizing 目录的所有目录节点,也就是 member_i。判断 i 的值是否已经是成员的个数,如果小于成员个数等待 /synchronizing/start 的出现,如果已经相等就创建 /synchronizing/start。

用下面的流程图更容易理解:

图 5. 同步队列流程图

å¾ 5. åæ ¥ éåæµç¨å¾

同步队列的关键代码如下,完整的代码请看附件:

清单 5. 同步队列

void addQueue() throws KeeperException, InterruptedException{ 
       zk.exists(root + "/start",true); 
       zk.create(root + "/" + name, new byte[0], Ids.OPEN_ACL_UNSAFE, 
       CreateMode.EPHEMERAL_SEQUENTIAL); 
       synchronized (mutex) { 
           List<String> list = zk.getChildren(root, false); 
           if (list.size() < size) { 
               mutex.wait(); 
           } else { 
               zk.create(root + "/start", new byte[0], Ids.OPEN_ACL_UNSAFE,
                CreateMode.PERSISTENT); 
           } 
       } 
}

当队列没满是进入 wait(),然后会一直等待 Watch 的通知,Watch 的代码如下:

1

2

3

4

5

6

7

8

public void process(WatchedEvent event) {

       if(event.getPath().equals(root + "/start") &&

        event.getType() == Event.EventType.NodeCreated){

           System.out.println("得到通知");

           super.process(event);

           doAction();

       }

   }

FIFO 队列用 Zookeeper 实现思路如下:

实现的思路也非常简单,就是在特定的目录下创建 SEQUENTIAL 类型的子目录 /queue_i,这样就能保证所有成员加入队列时都是有编号的,出队列时通过 getChildren( ) 方法可以返回当前所有的队列中的元素,然后消费其中最小的一个,这样就能保证 FIFO。

下面是生产者和消费者这种队列形式的示例代码,完整的代码请看附件:

清单 6. 生产者代码

boolean produce(int i) throws KeeperException, InterruptedException{ 
       ByteBuffer b = ByteBuffer.allocate(4); 
       byte[] value; 
       b.putInt(i); 
       value = b.array(); 
       zk.create(root + "/element", value, ZooDefs.Ids.OPEN_ACL_UNSAFE, 
                   CreateMode.PERSISTENT_SEQUENTIAL); 
       return true; 
   }

 清单 7. 消费者代码

int consume() throws KeeperException, InterruptedException{ 
       int retvalue = -1; 
       Stat stat = null; 
       while (true) { 
           synchronized (mutex) { 
               List<String> list = zk.getChildren(root, true); 
               if (list.size() == 0) { 
                   mutex.wait(); 
               } else { 
                   Integer min = new Integer(list.get(0).substring(7)); 
                   for(String s : list){ 
                       Integer tempValue = new Integer(s.substring(7)); 
                       if(tempValue < min) min = tempValue; 
                   } 
                   byte[] b = zk.getData(root + "/element" + min,false, stat); 
                   zk.delete(root + "/element" + min, 0); 
                   ByteBuffer buffer = ByteBuffer.wrap(b); 
                   retvalue = buffer.getInt(); 
                   return retvalue; 
               } 
           } 
       } 
}

结束语

Zookeeper 作为 Hadoop 项目中的一个子项目,是 Hadoop 集群管理的一个必不可少的模块,它主要用来控制集群中的数据,如它管理 Hadoop 集群中的 NameNode,还有 Hbase 中 Master Election、Server 之间状态同步等。

Cet article présente les connaissances de base de Zookeeper et présente plusieurs scénarios d'application typiques. Voici les fonctions de base de Zookeeper. La chose la plus importante est que Zookeeper fournit un bon mécanisme de gestion de cluster distribué, qui est basé sur la structure de données hiérarchique de l'arborescence de répertoires et gère efficacement les nœuds de l'arborescence. De cette manière, une variété de Des modèles de gestion de données peuvent être conçus, pas seulement limités aux différents scénarios d'application courants mentionnés ci-dessus.

 

 

Lien d'origine: https://www.ibm.com/developerworks/cn/opensource/os-cn-zookeeper/index.html  Xu Lingbo

Je suppose que tu aimes

Origine blog.csdn.net/weixin_44961794/article/details/100055900
conseillé
Classement