Zookeeper是开源的分布式协调服务,提供了分布式数据一致性的解决方案。

Zookeeper 可用作配置中心和分布式锁服务,在 Dubbo、Kafka、Spark等分布式集群上得到广泛应用。

ZNode

Zookeeper的数据模型为树状结构,树的节点被称作ZNode。

Zookeeper使用路径来唯一标识ZNode,类似于Unix文件系统中的绝对路径。路径必须以/开头,由Unicode字符串组成,如/myapp/master/0

每一个ZNode维护着三部分数据:

  • stat: 节点状态信息,包括版本、更改时间、访问控制等
  • data: 节点的内容数据,Zookeeper限制每个节点数据不超过1M。Zookeeper设计用来进行协调调度,请勿在其中存放大量数据。
  • children: 该ZNode的子节点。

每个节点都有独立的访问控制列表(Access Control List, ACL), 来控制用户对本节点的访问权限。

每个ZNode都维护着三个版本号:

  • dataVersion: 节点数据版本号
  • cversion: 子节点版本号
  • aclVersion: 节点访问控制列表版本号

所有的写操作都会使相应的版本号增加。写操作必须指定要更新的ZNode的版本号,版本号不一致会导致写入失败。

Zxid

所有对Zookeeper状态的改变都会产生一个Zxid(ZooKeeper Transaction Id),Zxid全局有序。

Zxid为标识事件发生的先后顺序: 即事件A发生早于事件B,那么事件A的Zxid定小于事件B的Zxid。

每个ZNode维护两个Zxid:

  • cZxid: Znode创建
  • mZxid: Znode最近修改

Zxid是一个64位的数字, 高32位表示Zookeeper集群leader, 低32位表示逻辑顺序。每次leader改变后, 新产生的Zxid高32位都会改变。

节点类型

Zookeeper中的节点分为两种:

  • 临时节点: 临时节点依赖于创建节点的会话(Session), 一旦Session结束临时节点会被自动删除。临时节点不允许拥有子节点
  • 永久节点: 永久节点生存期不依赖于客户端会话,只有客户端执行删除操作时才会删除。

Zookeeper 可以创建顺序子节点,即创建子节点时在路径结尾添加一个自增的32位 id, 该id在该节点的父节点下是唯一的。

Watch

Zookeeper 所有的读操作getData(), getChildren()和 exists()都可以设置 Watch 触发器。

Watch 触发器是一次性的,当触发器通知了一次状态变化后消失,不会通知状态的再次变化。

Zookeeper 与客户端之间通过 Tcp Socket 进行通信, Zookeeper 会主动将时间通知客户端。

Zookeeper 保证客户端只有首先收到了Watch通知后,才会感知到它所设置监视的znode发生了变化。

Zookeeper 支持三种类型的watch:

  • exists: 被监视的Znode 创建、删除、数据改变时被触发
  • getData: 被监视的Znode 删除、数据改变时被触发
  • getChildren: 被监视的Znode 删除、创建子节点、删除子节点时被触发

Zookeeper 应用

ZooKeeper 是具有较高一致性的分布式协调服务,它提供以下保证:

  • 原子性: 所有操作具有原子性
  • 分布式一致性: 从任意节点中读取到的数据都是一致的
  • 顺序一致性: 从一个客户端来的更新请求会被顺序执行
  • 持久性: 写操作一旦成功,直到被覆盖为止持续有效

Zookeeper 使用数据副本和崩溃恢复机制保证数据安全和集群高可用性。

Zookeeper 使用基于 Paxos 算法的 ZAB协议(Zookeeper Atomic Broadcast)进行写操作,保证集群数据的一致性。

配置中心

我们可以将系统中通用配置信息写入 ZNode 中,客户端启动时从 Zookeeper 获取配置数据并监视配置节点的变化,当配置发生改变 Zookeeper 会通知所有的客户端获取最新数据,从而实现在线更新配置。

适合使用Zookeeper维护的配置通常:

  • 数据量较小
  • 在运行时动态发生变化
  • 各客户端读取到数据需要相同
  • 具有顺序一致性,客户端只要读取到新版本的数据,此后就不能读取到旧版本数据

当服务启动时,服务提供者可以在Zookeeper的相应路径下创建临时节点,并在节点中写入服务配置信息。服务关闭(崩溃)时,临时节点自动删除。

客户端启动时从 ZooKeeper 读取服务提供者信息从而实现自动的服务发布/移除功能。

分布式锁

Zookeeper 的临时节点可以维护客户端持有锁的状态,加锁失败的客户端可以使用 Watch 机制监视锁的释放情况,实现阻塞等待加锁。

Zookeeper 的顺序节点可以实现一个简单的队列,可以利用此特性实现公平锁。客户端在锁节点下创建顺序子节点,持有最小子节点的客户端成功加锁,加锁失败的客户端 Watch 前一个顺序子节点,从而实现先到先得的公平锁机制。

命名服务

ZooKeeper 的顺序节点可以生成全局唯一ID, 我们可以利用该ID为服务命名。相对于UUID, 该名称较短且可以保证绝不重复。

Master选举

与分布式公平锁应用类似,ZooKeeper 可以维护集群 Master。

集群中所有可以成为 Master 的进程都在 Zookeeper 中的指定路径下创建顺序子节点,持有最小子节点的进程成为Master。

集群中所有进程都 Watch 指定路径下节点的情况,一旦发生变化则重新读取最小子节点的持有者作为Master。

脑裂问题

传统集群实现方案是运行一个备用Master节点,备用Master节点定期向主Master节点发送ping请求,若能及时收到主Master的ack响应则认为正常。

若Ack响应超时,备用Master则会取代原主Master成为新的集群主Master节点。

若响应超时因为主Master故障导致,备用Master成为新的主节点完全正常。

若超时因为主备 Master 节点间 ping-ack 网络故障导致,那么主Master工作正常,而备用Master却误认为主Master崩溃而进行取代,那么集群中可能出现多个Master共存的故障(即脑裂故障)。

若使用 Zookeeper 维护 Master 信息,无论是因为主Master故障还是通信问题导致最小子节点被删除,备用Master持有的节点都会成为最小子节点。

此时,所有客户端都会受到通知并得知 Master 变更,保证集群中只有一个 Master。

当崩溃的Master恢复后,它将成为新的备用Master加入集群。

ZooKeeper 无法避免通信故障导致误判 Master 状态,但是可以保证在任何情况下集群中只有一个 Master 节点。

版权声明:本文为Finley原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/Finley/p/9697237.html