分布式服务框架 Zookeeper -- 管理分布式环境中的数据
原文地址:http://www.ibm.com/developerworks/cn/opensource/os-cn-zookeeper/
安装和配置详解
本文介绍的Zookeeper是以3.2.2这个稳定版本为基础,最新的版本可以通过官网http://hadoop.apache.org/zookeeper/来获取,Zookeeper的安装非常简单,下面将从单机模式和集群模式两个方面介绍Zookeeper的安装和配置。
单机模式
单机安装非常简单,只要获取到Zookeeper的压缩包并解压到某个目录如:/home/zookeeper-3.2.2下,Zookeeper的启动脚本在bin目录下,Linux下的启动脚本是zkServer.sh,在3.2.2这个版本Zookeeper没有提供windows下的启动脚本,所以要想在windows下启动Zookeeper要自己手工写一个,如清单1所示:
清单1.Windows下Zookeeper启动脚本
setlocal
setZOOCFGDIR=%~dp0%..\conf
setZOO_LOG_DIR=%~dp0%..
setZOO_LOG4J_PROP=INFO,CONSOLE
setCLASSPATH=%ZOOCFGDIR%
setCLASSPATH=%~dp0..\*;%~dp0..\lib\*;%CLASSPATH%
setCLASSPATH=%~dp0..\build\classes;%~dp0..\build\lib\*;%CLASSPATH%
setZOOCFG=%ZOOCFGDIR%\zoo.cfg
setZOOMAIN=org.apache.zookeeper.server.ZooKeeperServerMain
java"-Dzookeeper.log.dir=%ZOO_LOG_DIR%""-Dzookeeper.root.logger=%ZOO_LOG4J_PROP%"
-cp"%CLASSPATH%"%ZOOMAIN%"%ZOOCFG%"%*
endlocal
在你执行启动脚本之前,还有几个基本的配置项需要配置一下,Zookeeper的配置文件在conf目录下,这个目录下有zoo_sample.cfg和log4j.properties,你需要做的就是将zoo_sample.cfg改名为zoo.cfg,因为Zookeeper在启动时会找这个文件作为默认配置文件。下面详细介绍一下,这个配置文件中各个配置项的意义。
tickTime=2000
dataDir=D:/devtools/zookeeper-3.2.2/build
clientPort=2181
tickTime:这个时间是作为Zookeeper服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个tickTime时间就会发送一个心跳。
dataDir:顾名思义就是Zookeeper保存数据的目录,默认情况下,Zookeeper将写数据的日志文件也保存在这个目录里。
clientPort:这个端口就是客户端连接Zookeeper服务器的端口,Zookeeper会监听这个端口,接受客户端的访问请求。
当这些配置项配置好后,你现在就可以启动Zookeeper了,启动后要检查Zookeeper是否已经在服务,可以通过netstat–ano命令查看是否有你配置的clientPort端口号在监听服务。
集群模式
Zookeeper不仅可以单机提供服务,同时也支持多机组成集群来提供服务。实际上Zookeeper还支持另外一种伪集群的方式,也就是可以在一台物理机上运行多个Zookeeper实例,下面将介绍集群模式的安装和配置。
Zookeeper的集群模式的安装和配置也不是很复杂,所要做的就是增加几个配置项。集群模式除了上面的三个配置项还要增加下面几个配置项:
initLimit=5
syncLimit=2
server.1=192.168.211.1:2888:3888
server.2=192.168.211.2:2888:3888
initLimit:这个配置项是用来配置Zookeeper接受客户端(这里所说的客户端不是用户连接Zookeeper服务器的客户端,而是Zookeeper服务器集群中连接到Leader的Follower服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过10个心跳的时间(也就是tickTime)长度后Zookeeper服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是5*2000=10秒
syncLimit:这个配置项标识Leader与Follower之间发送消息,请求和应答时间长度,最长不能超过多少个tickTime的时间长度,总的时间长度就是2*2000=4秒
server.A=B:C:D:其中A是一个数字,表示这个是第几号服务器;B是这个服务器的ip地址;C表示的是这个服务器与集群中的Leader服务器交换信息的端口;D表示的是万一集群中的Leader服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于B都是一样,所以不同的Zookeeper实例通信端口号不能一样,所以要给它们分配不同的端口号。
除了修改zoo.cfg配置文件,集群模式下还要配置一个文件myid,这个文件在dataDir目录下,这个文件里面就有一个数据就是A的值,Zookeeper启动时会读取这个文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是那个server。
数据模型
Zookeeper会维护一个具有层次关系的数据结构,它非常类似于一个标准的文件系统,如图1所示:
图1Zookeeper数据结构
图1Zookeeper数据结构
Zookeeper这种数据结构有如下这些特点:
每个子目录项如NameService都被称作为znode,这个znode是被它所在的路径唯一标识,如Server1这个znode的标识为/NameService/Server1
znode可以有子节点目录,并且每个znode可以存储数据,注意EPHEMERAL类型的目录节点不能有子节点目录
znode是有版本的,每个znode中存储的数据可以有多个版本,也就是一个访问路径中可以存储多份数据
znode可以是临时节点,一旦创建这个znode的客户端与服务器失去联系,这个znode也将自动删除,Zookeeper的客户端和服务器通信采用长连接方式,每个客户端和服务器通过心跳来保持连接,这个连接状态称为session,如果znode是临时节点,这个session失效,znode也就删除了
znode的目录名可以自动编号,如App1已经存在,再创建的话,将会自动命名为App2
znode可以被监控,包括这个目录节点中存储的数据的修改,子节点目录的变化等,一旦变化可以通知设置监控的客户端,这个是Zookeeper的核心特性,Zookeeper的很多功能都是基于这个特性实现的,后面在典型的应用场景中会有实例介绍
回页首
如何使用
Zookeeper作为一个分布式的服务框架,主要用来解决分布式集群中应用系统的一致性问题,它能提供基于类似于文件系统的目录节点树方式的数据存储,但是Zookeeper并不是用来专门存储数据的,它的作用主要是用来维护和监控你存储的数据的状态变化。通过监控这些数据状态的变化,从而可以达到基于数据的集群管理,后面将会详细介绍Zookeeper能够解决的一些典型问题,这里先介绍一下,Zookeeper的操作接口和简单使用示例。
常用接口列表
客户端要连接Zookeeper服务器可以通过创建org.apache.zookeeper.ZooKeeper的一个实例对象,然后调用这个类提供的接口来和服务器交互。
前面说了ZooKeeper主要是用来维护和监控一个目录节点树中存储的数据的状态,所有我们能够操作ZooKeeper的也和操作目录节点树大体一样,如创建一个目录节点,给某个目录节点设置数据,获取某个目录节点的所有子目录节点,给某个目录节点设置权限和监控这个目录节点的状态变化。
这些接口如下表所示:
表1org.apache.zookeeper.ZooKeeper方法列表
方法名方法功能描述
Stringcreate(Stringpath,byte[]data,List<ACL>acl,CreateModecreateMode)创建一个给定的目录节点path,并给它设置数据,CreateMode标识有四种形式的目录节点,分别是PERSISTENT:持久化目录节点,这个目录节点存储的数据不会丢失;PERSISTENT_SEQUENTIAL:顺序自动编号的目录节点,这种目录节点会根据当前已近存在的节点数自动加1,然后返回给客户端已经成功创建的目录节点名;EPHEMERAL:临时目录节点,一旦创建这个节点的客户端与服务器端口也就是session超时,这种节点会被自动删除;EPHEMERAL_SEQUENTIAL:临时自动编号节点
Statexists(Stringpath,booleanwatch)判断某个path是否存在,并设置是否监控这个目录节点,这里的watcher是在创建ZooKeeper实例时指定的watcher,exists方法还有一个重载方法,可以指定特定的watcher
Statexists(Stringpath,Watcherwatcher)重载方法,这里给某个目录节点设置特定的watcher,Watcher在ZooKeeper是一个核心功能,Watcher可以监控目录节点的数据变化以及子目录的变化,一旦这些状态发生变化,服务器就会通知所有设置在这个目录节点上的Watcher,从而每个客户端都很快知道它所关注的目录节点的状态发生变化,而做出相应的反应
voiddelete(Stringpath,intversion)删除path对应的目录节点,version为-1可以匹配任何版本,也就删除了这个目录节点所有数据
List<String>getChildren(Stringpath,booleanwatch)获取指定path下的所有子目录节点,同样getChildren方法也有一个重载方法可以设置特定的watcher监控子节点的状态
StatsetData(Stringpath,byte[]data,intversion)给path设置数据,可以指定这个数据的版本号,如果version为-1怎可以匹配任何版本
byte[]getData(Stringpath,booleanwatch,Statstat)获取这个path对应的目录节点存储的数据,数据的版本等信息可以通过stat来指定,同时还可以设置是否监控这个目录节点数据的状态
voidaddAuthInfo(Stringscheme,byte[]auth)客户端将自己的授权信息提交给服务器,服务器将根据这个授权信息验证客户端的访问权限。
StatsetACL(Stringpath,List<ACL>acl,intversion)给某个目录节点重新设置访问权限,需要注意的是Zookeeper中的目录节点权限不具有传递性,父目录节点的权限不能传递给子目录节点。目录节点ACL由两部分组成:perms和id。
Perms有ALL、READ、WRITE、CREATE、DELETE、ADMIN几种
而id标识了访问目录节点的身份列表,默认情况下有以下两种:
ANYONE_ID_UNSAFE=newId("world","anyone")和AUTH_IDS=newId("auth","")分别表示任何人都可以访问和创建者拥有访问权限。
List<ACL>getACL(Stringpath,Statstat)获取某个目录节点的访问权限列表
除了以上这些上表中列出的方法之外还有一些重载方法,如都提供了一个回调类的重载方法以及可以设置特定Watcher的重载方法,具体的方法可以参考org.apache.zookeeper.ZooKeeper类的API说明。
基本操作
下面给出基本的操作ZooKeeper的示例代码,这样你就能对ZooKeeper有直观的认识了。下面的清单包括了创建与ZooKeeper服务器的连接以及最基本的数据操作:
清单2.ZooKeeper基本的操作示例
//创建一个与服务器的连接
ZooKeeperzk=newZooKeeper("localhost:"+CLIENT_PORT,
ClientBase.CONNECTION_TIMEOUT,newWatcher(){
//监控所有被触发的事件
publicvoidprocess(WatchedEventevent){
System.out.println("已经触发了"+event.getType()+"事件!");
}
});
//创建一个目录节点
zk.create("/testRootPath","testRootData".getBytes(),Ids.OPEN_ACL_UNSAFE,
CreateMode.PERSISTENT);
//创建一个子目录节点
zk.create("/testRootPath/testChildPathOne","testChildDataOne".getBytes(),
Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);
System.out.println(newString(zk.getData("/testRootPath",false,null)));
//取出子目录节点列表
System.out.println(zk.getChildren("/testRootPath",true));
//修改子目录节点数据
zk.setData("/testRootPath/testChildPathOne","modifyChildDataOne".getBytes(),-1);
System.out.println("目录节点状态:["+zk.exists("/testRootPath",true)+"]");
//创建另外一个子目录节点
zk.create("/testRootPath/testChildPathTwo","testChildDataTwo".getBytes(),
Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);
System.out.println(newString(zk.getData("/testRootPath/testChildPathTwo",true,null)));
//删除子目录节点
zk.delete("/testRootPath/testChildPathTwo",-1);
zk.delete("/testRootPath/testChildPathOne",-1);
//删除父目录节点
zk.delete("/testRootPath",-1);
//关闭连接
zk.close();
输出的结果如下:
已经触发了None事件!
testRootData
[testChildPathOne]
目录节点状态:[5,5,1281804532336,1281804532336,0,1,0,0,12,1,6]
已经触发了NodeChildrenChanged事件!
testChildDataTwo
已经触发了NodeDeleted事件!
已经触发了NodeDeleted事件!
当对目录节点监控状态打开时,一旦目录节点的状态发生变化,Watcher对象的process方法就会被调用。
回页首
ZooKeeper典型的应用场景
Zookeeper从设计模式角度来看,是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper就将负责通知已经在Zookeeper上注册的那些观察者做出相应的反应,从而实现集群中类似Master/Slave管理模式,关于Zookeeper的详细架构等内部细节可以阅读Zookeeper的源码
下面详细介绍这些典型的应用场景,也就是Zookeeper到底能帮我们解决那些问题?下面将给出答案。
统一命名服务(NameService)
分布式应用中,通常需要有一套完整的命名规则,既能够产生唯一的名称又便于人识别和记住,通常情况下用树形的名称结构是一个理想的选择,树形的名称结构是一个有层次的目录结构,既对人友好又不会重复。说到这里你可能想到了JNDI,没错Zookeeper的NameService与JNDI能够完成的功能是差不多的,它们都是将有层次的目录结构关联到一定资源上,但是Zookeeper的NameService更加是广泛意义上的关联,也许你并不需要将名称关联到特定资源上,你可能只需要一个不会重复名称,就像数据库中产生一个唯一的数字主键一样。
NameService已经是Zookeeper内置的功能,你只要调用Zookeeper的API就能实现。如调用create接口就可以很容易创建一个目录节点。
配置管理(ConfigurationManagement)
配置的管理在分布式应用环境中很常见,例如同一个应用系统需要多台PCServer运行,但是它们运行的应用系统的某些配置项是相同的,如果要修改这些相同的配置项,那么就必须同时修改每台运行这个应用系统的PCServer,这样非常麻烦而且容易出错。
像这样的配置信息完全可以交给Zookeeper来管理,将配置信息保存在Zookeeper的某个目录节点中,然后将所有需要修改的应用机器监控配置信息的状态,一旦配置信息发生变化,每台应用机器就会收到Zookeeper的通知,然后从Zookeeper获取新的配置信息应用到系统中。
图2.配置管理结构图
图2.配置管理结构图
集群管理(GroupMembership)
Zookeeper能够很容易的实现集群管理的功能,如有多台Server组成一个服务集群,那么必须要一个“总管”知道当前集群中每台机器的服务状态,一旦有机器不能提供服务,集群中其它集群必须知道,从而做出调整重新分配服务策略。同样当增加集群的服务能力时,就会增加一台或多台Server,同样也必须让“总管”知道。
Zookeeper不仅能够帮你维护当前的集群中机器的服务状态,而且能够帮你选出一个“总管”,让这个总管来管理集群,这就是Zookeeper的另一个功能LeaderElection。
它们的实现方式都是在Zookeeper上创建一个EPHEMERAL类型的目录节点,然后每个Server在它们创建目录节点的父目录节点上调用getChildren(Stringpath,booleanwatch)方法并设置watch为true,由于是EPHEMERAL目录节点,当创建它的Server死去,这个目录节点也随之被删除,所以Children将会变化,这时getChildren上的Watch将会被调用,所以其它Server就知道已经有某台Server死去了。新增Server也是同样的原理。
Zookeeper如何实现LeaderElection,也就是选出一个MasterServer。和前面的一样每台Server创建一个EPHEMERAL目录节点,不同的是它还是一个SEQUENTIAL目录节点,所以它是个EPHEMERAL_SEQUENTIAL目录节点。之所以它是EPHEMERAL_SEQUENTIAL目录节点,是因为我们可以给每台Server编号,我们可以选择当前是最小编号的Server为Master,假如这个最小编号的Server死去,由于是EPHEMERAL节点,死去的Server对应的节点也被删除,所以当前的节点列表中又出现一个最小编号的节点,我们就选择这个节点为当前Master。这样就实现了动态选择Master,避免了传统意义上单Master容易出现单点故障的问题。
图3.集群管理结构图
图3.集群管理结构图
这部分的示例代码如下,完整的代码请看附件:
清单3.LeaderElection关键代码
voidfindLeader()throwsInterruptedException{
byte[]leader=null;
try{
leader=zk.getData(root+"/leader",true,null);
}catch(Exceptione){
logger.error(e);
}
if(leader!=null){
following();
}else{
StringnewLeader=null;
try{
byte[]localhost=InetAddress.getLocalHost().getAddress();
newLeader=zk.create(root+"/leader",localhost,
ZooDefs.Ids.OPEN_ACL_UNSAFE,CreateMode.EPHEMERAL);
}catch(Exceptione){
logger.error(e);
}
if(newLeader!=null){
leading();
}else{
mutex.wait();
}
}
}
共享锁(Locks)
共享锁在同一个进程中很容易实现,但是在跨进程或者在不同Server之间就不好实现了。Zookeeper却很容易实现这个功能,实现方式也是需要获得锁的Server创建一个EPHEMERAL_SEQUENTIAL目录节点,然后调用getChildren方法获取当前的目录节点列表中最小的目录节点是不是就是自己创建的目录节点,如果正是自己创建的,那么它就获得了这个锁,如果不是那么它就调用exists(Stringpath,booleanwatch)方法并监控Zookeeper上目录节点列表的变化,一直到自己创建的节点是列表中最小编号的目录节点,从而获得锁,释放锁很简单,只要删除前面它自己所创建的目录节点就行了。
图4.Zookeeper实现Locks的流程图
图4.Zookeeper实现Locks的流程图
同步锁的实现代码如下,完整的代码请看附件:
清单4.同步锁的关键代码
voidgetLock()throwsKeeperException,InterruptedException{
List<String>list=zk.getChildren(root,false);
String[]nodes=list.toArray(newString[list.size()]);
Arrays.sort(nodes);
if(myZnode.equals(root+"/"+nodes[0])){
doAction();
}
else{
waitForLock(nodes[0]);
}
}
voidwaitForLock(Stringlower)throwsInterruptedException,KeeperException{
Statstat=zk.exists(root+"/"+lower,true);
if(stat!=null){
mutex.wait();
}
else{
getLock();
}
}
队列管理
Zookeeper可以处理两种类型的队列:
当一个队列的成员都聚齐时,这个队列才可用,否则一直等待所有成员到达,这种是同步队列。
队列按照FIFO方式进行入队和出队操作,例如实现生产者和消费者模型。
同步队列用Zookeeper实现的实现思路如下:
创建一个父目录/synchronizing,每个成员都监控标志(SetWatch)位目录/synchronizing/start是否存在,然后每个成员都加入这个队列,加入队列的方式就是创建/synchronizing/member_i的临时目录节点,然后每个成员获取/synchronizing目录的所有目录节点,也就是member_i。判断i的值是否已经是成员的个数,如果小于成员个数等待/synchronizing/start的出现,如果已经相等就创建/synchronizing/start。
用下面的流程图更容易理解:
图5.同步队列流程图
图5.同步队列流程图
同步队列的关键代码如下,完整的代码请看附件:
清单5.同步队列
voidaddQueue()throwsKeeperException,InterruptedException{
zk.exists(root+"/start",true);
zk.create(root+"/"+name,newbyte[0],Ids.OPEN_ACL_UNSAFE,
CreateMode.EPHEMERAL_SEQUENTIAL);
synchronized(mutex){
List<String>list=zk.getChildren(root,false);
if(list.size()<size){
mutex.wait();
}else{
zk.create(root+"/start",newbyte[0],Ids.OPEN_ACL_UNSAFE,
CreateMode.PERSISTENT);
}
}
}
当队列没满是进入wait(),然后会一直等待Watch的通知,Watch的代码如下:
publicvoidprocess(WatchedEventevent){
if(event.getPath().equals(root+"/start")&&
event.getType()==Event.EventType.NodeCreated){
System.out.println("得到通知");
super.process(event);
doAction();
}
}
FIFO队列用Zookeeper实现思路如下:
实现的思路也非常简单,就是在特定的目录下创建SEQUENTIAL类型的子目录/queue_i,这样就能保证所有成员加入队列时都是有编号的,出队列时通过getChildren()方法可以返回当前所有的队列中的元素,然后消费其中最小的一个,这样就能保证FIFO。
下面是生产者和消费者这种队列形式的示例代码,完整的代码请看附件:
清单6.生产者代码
booleanproduce(inti)throwsKeeperException,InterruptedException{
ByteBufferb=ByteBuffer.allocate(4);
byte[]value;
b.putInt(i);
value=b.array();
zk.create(root+"/element",value,ZooDefs.Ids.OPEN_ACL_UNSAFE,
CreateMode.PERSISTENT_SEQUENTIAL);
returntrue;
}
清单7.消费者代码
intconsume()throwsKeeperException,InterruptedException{
intretvalue=-1;
Statstat=null;
while(true){
synchronized(mutex){
List<String>list=zk.getChildren(root,true);
if(list.size()==0){
mutex.wait();
}else{
Integermin=newInteger(list.get(0).substring(7));
for(Strings:list){
IntegertempValue=newInteger(s.substring(7));
if(tempValue<min)min=tempValue;
}
byte[]b=zk.getData(root+"/element"+min,false,stat);
zk.delete(root+"/element"+min,0);
ByteBufferbuffer=ByteBuffer.wrap(b);
retvalue=buffer.getInt();
returnretvalue;
}
}
}
}
回页首
总结
Zookeeper作为Hadoop项目中的一个子项目,是Hadoop集群管理的一个必不可少的模块,它主要用来控制集群中的数据,如它管理Hadoop集群中的NameNode,还有Hbase中MasterElection、Server之间状态同步等。
本文介绍的Zookeeper的基本知识,以及介绍了几个典型的应用场景。这些都是Zookeeper的基本功能,最重要的是Zoopkeeper提供了一套很好的分布式集群管理的机制,就是它这种基于层次型的目录树的数据结构,并对树中的节点进行有效管理,从而可以设计出多种多样的分布式的数据管理模型,而不仅仅局限于上面提到的几个常用应用场景。