diva-notes
  • README
  • Ads
    • 定价策略
    • 广告层级
    • 归因模型
    • 买量
    • Chat GPT
    • Google
  • AI
    • 参考资料
    • Chat GPT
    • stable-diffusion-webui安装
  • Algorithm
    • 倍增
    • 并查集
    • 参考
    • 环的判断
    • 凸包
    • 蓄水池抽样
    • 最短路径
    • 最小生成树
    • KMP算法
    • Rabin-Karp算法
    • Tarjan桥算法
  • Architecture
    • Serverless
  • Career
  • CICD
    • 代码质量
    • CICD实践
  • Data Structure
    • 布谷鸟过滤器
    • 布隆过滤器
    • 浮点
    • 红黑树
    • 锁
    • LSM树
  • DB
    • My SQL
      • 隔离级别
      • 架构
      • 索引
      • 锁
      • 页结构
      • 主从同步
      • ACID
      • Log
      • MVCC
      • Questions
    • Postgres
      • 持久化
      • 对比MySQL
      • 隔离级别
      • 索引
      • Greenpulm
      • MVCC
    • 倒排索引
    • 列式存储
    • H Base
    • HDFS
    • MPP数据库选型
    • Questions
  • Distributed System
    • 分布式事务
    • 服务网格
    • BASE理论
    • CAP
    • Etcd
    • Raft协议
    • ZAB协议
  • Go
    • 1.语言基础
      • 1.CPU寄存器
      • 2-1.函数调用
      • 2-2.函数调用栈
      • 2.接口
      • 3.汇编
      • 4.调试
    • 2.编译
      • 1.编译
      • 2.词法与语法分析
      • 3.类型检查
      • 4.中间代码生成
      • 5.机器码生成
    • 3.数据结构
      • 1.数组array
      • 2.切片slice
      • 3.哈希表map
      • 4.字符串
    • 4.常用关键字
      • 1.循环
      • 2.defer
      • 3.panic和recover
      • 4.make和new
    • 5.并发编程
      • 1.上下文Context的实现
      • 2-1.runtime.sema信号量
      • 2-2.sync.Mutex的实现
      • 2-3.sync.WaitGroup
      • 2-4.sync.Once的实现
      • 2-5.sync.Map的实现
      • 2-6.sync.Cond
      • 2-7.sync.Pool的实现
      • 2-8.sync.Semaphore的实现
      • 2-9.sync.ErrGroup
      • 3.定时器Timer的实现
      • 4.Channel的实现
      • 5-1.调度-线程
      • 5-2.调度-MPG
      • 5-3.调度-程序及调度启动
      • 5-4.调度-调度策略
      • 5-5.调度-抢占
      • 6.netpoll实现
      • 7.atomic
    • 6.内存管理
      • 1-1.内存分配基础-TCmalloc
      • 1-2.内存分配
      • 2.垃圾回收
      • 3.栈内存管理
    • 参考
    • 各版本特性
    • 坑
    • Go程序性能优化
    • http.Client
    • net.http路由
    • profile采样的实现
    • Questions
    • time的设计
  • Kafka
    • 高可用
    • 架构
    • 消息队列选型
    • ISR
    • Questions
  • Network
    • ARP
    • DNS
    • DPVS
    • GET和POST
    • HTTP 2
    • HTTP 3
    • HTTPS
    • LVS的转发模式
    • NAT
    • Nginx
    • OSI七层模型
    • Protobuf
    • Questions
    • REST Ful
    • RPC
    • socket缓冲区
    • socket详解
    • TCP滑动窗口
    • TCP连接建立源码
    • TCP连接四元组
    • TCP三次握手
    • TCP数据结构
    • TCP四次挥手
    • TCP拥塞控制
    • TCP重传机制
    • UDP
  • OS
    • 磁盘IO
    • 调度
    • 进程VS线程
    • 零拷贝
    • 内存-虚拟内存
    • 内存分配
    • 用户态VS内核态
    • 中断
    • COW写时复制
    • IO多路复用
    • Questions
  • Redis
    • 安装
    • 参考
    • 高可用-持久化
    • 高可用-主从同步
    • 高可用-Cluster
    • 高可用-Sentinel
    • 缓存一致性
    • 事务
    • 数据结构-SDS
    • 数据结构-Skiplist
    • 数据结构-Ziplist
    • 数据结构
    • 数据类型-Hashtable
    • 数据类型-List
    • 数据类型-Set
    • 数据类型-Zset
    • 数据淘汰机制
    • 通信协议-RESP
    • Questions
    • Redis6.0多线程
    • Redis分布式锁
    • Redis分片
  • System Design
    • 本地缓存
    • 错误处理
    • 大文件处理
    • 点赞收藏关注
    • 短链接生成系统
    • 负载均衡
    • 高并发高可用
    • 规则引擎
    • 集卡活动
    • 秒杀系统
    • 评论系统
    • 熔断
    • 限流
    • 延迟队列
    • Docker
    • ES
    • K 8 S
    • Node.js
    • Questions
  • Work
    • Bash
    • Charles
    • Code Review
    • Ffmpeg
    • Git
    • intellij插件
    • I Term 2
    • Mac
    • mysql命令
    • Nginx
    • postgresql命令
    • Protoc
    • Ssh
    • Systemd
    • Tcp相关命令
    • Vim
Powered by GitBook
On this page
  • 消息传播
  • 主节点选取
  • 一些概念
  • 选主时机
  • 选举条件
  • 选主后的数据同步
  • 其他
  1. Distributed System

ZAB协议

ZAB 全称 Zookeeper Atomic Broadcast,Zookeeper 原子消息广播协议。

ZAB 是一种专门为 Zookeeper 设计的一种支持 崩溃恢复 的 原子广播协议 ,是 Zookeeper 保证数据一致性的核心算法。ZAB 借鉴了 Paxos 算法,但它不是通用的一致性算法,是特别为 Zookeeper 设计的。

消息传播

ZAB 协议的消息广播使用原子广播协议, 类似一个二阶段提交的过程 ,但又有所不同。

  1. 第一阶段,leader 提一个 proposal 给 follower。

  2. 第二阶段,leader 发送 commit,通知 follower 完成事务的提交。

  3. 和一般 2PC 不一样,不需要全部 follower 回复 ack,超过半数 ack 就可以才进入第二阶段。

主节点选取

一些概念

election epoch

这是分布式系统中极其重要的概念,由于分布式系统的特点,无法使用精准的时钟来维护事件的先后顺序,因此,Lampert 提出的 Logical Clock 就成为了界定事件顺序的最主要方式。

其实就是表示选举的轮数。每次选主,都会加一轮。类似于每个皇帝的年号。

zxid

每个消息的编号。

全局唯一。由两部分组成:高32位是 epoch,低32位是 epoch 内的自增id,由0开始。每次选出新的 leader,epoch 会递增,同时 zxid 的低32位清0。

节点状态

  • LOOKING: 节点正处于选主状态,不对外提供服务,直至选主结束

  • FOLLOWING: 作为系统的从节点,接受主节点的更新并写入本地日志

  • LEADING: 作为系统主节点,接受客户端更新,写入本地日志并复制到从节点

  • 类似 raft 的 leader, follower, candidate 三角色

选主时机

  1. 节点启动时

  2. leader 会给 follower 发心跳,如果 follower 长期未收到 leader 的心跳,会进入选主

  3. 如果 leader 发现多数 follower 不再响应自己,那自己很可能是掉线了,leader 也会进入 LOOKING 状态,导致其他点进入选主

选举条件

  1. 选 epoch 最大的

  2. epoch 相等,选 zxid 最大的

  3. epoch 和 zxid 都相等,选 server_id 最大的(zoo.cfg 中配置的 myid)

  4. 节点可以投多次票,给不同的参选者

  5. 需要过半数节点投票同意,才能选出主节点。主节点收到半数以上票后会通知其他点

选主后的数据同步

这是和 Paxos/raft 比较不同的地方。Paxos 没有这步。

新的 leaader 选出后,可能进度比别的 follower 都快,也可能比部分 follower 慢。

  1. 对 leader 上有、follower 上没有的数据,leader 要重新同步给 follower

  2. 对 leader 上没有、follower 上有的,leader 要通知 follower 丢弃

通过同步阶段,保证数据的一致性。

其他

选主期间,集群不可用

关于一致性的讨论

ZAB 的算法是强一致性的,读写都走 leader。

但 zk 实际应用中,根据配置及使用的接口,是有不同的一致性表现的:

  • 它的写是集中在 leader 上的,因此写一定是线性一致性的。

  • zk 默认读走 follower 的,可能读到过期数据,这时不是线性的。

  • 这种情况下,zk 的一致性,介于 顺序一致性 和 线性一致性之间。(between sequential consistency and linearizability)。

  • zk 提供了 sync 接口,强制 follower 从 leader 同步数据,保证强一致性,但是会加重 leader 负担。

和 Paxos / raft 的异同

  1. 理论:Paxos/raft 是理论,ZAB 是具体实现。两者有很多相似的地方,比如日志复制、超半数节点同意、纪元的概念等。

  2. 设计目标:两者的设计目标也不同,Paxos/raft 用于构建一个复制状态机,而 zk 是用于构建一个主备系统。

  3. 选主:

    1. 同步:ZAB 选主完成后有一个数据同步过程,而 Paxos/raft 没有这个过程。raft 是通过之后的一致性检查来完成同步。

    2. 效率:

      1. raft 的节点只能投一次票,可能导致各参选者票数一样,选不出主。raft 通过加了个随机过期时间减少该情况

      2. ZAB 的节点在轮次内可以投多张票,只要遇到更大的票就更新,然后分发新的投票给所有人。这样不会出现 split vote 现象,但会导致选举更慢。

    3. 选主时机的触发:

      1. raft 只有 follower 收不到心跳时会进入选主

      2. ZAB 在此基础上,还有在 leader 收不到大部分 follower 心跳时转为 LOOKING 状态的机制

    4. 投票:对于投票这个动作,raft 是单播,投票者只回复给拉票者;ZAB 是广播,投票者会将投票信息告知所有节点

    5. 主节点上任:

      1. raft 由主节点通知其他节点

      2. ZAB 投票时就是广播,节点收到其他点的投票决定后就能知道哪个点收到半数以上的票了

  4. 日志复制:

    1. 主节点复制日志给从节点,都是过半数从节点收到即可

    2. raft 是连续性日志,有 index

    3. ZAB 不是连续性的。leader 需要为每一个 follower 单独保存一个队列,记录所有的改动。这样导致 zk 在同步数据时,需要阻塞 leader 的写,完成同步后再解锁

  5. 安全:

    1. 新旧主节点同时向从节点写的脑裂问题:

      1. raft 的从节点通过 term 号,拒绝旧 leader 的写入请求

      2. ZAB 的从节点选出新 leader 后就会断开与旧 leader 的连接

    2. 选主后的旧数据:

      1. raft: leader 不允许直接提交之前任期的日志。只有当当前任期日志过半了,才会顺便将之前任期的日志进行提交

      2. ZAB:采取激进的策略,对于所有过半还是未过半的日志都判定为提交,同步给其他从节点

  6. 新节点加入:

    1. raft 的新节点会直接收到 leader 的同步请求。

    2. zk 则会发起新一轮选主,但会被其他节点拒绝,从而变为 FOLLWING 状态

  7. Paxos 下各节点收到的日志后可能是乱序的,但能通过共识算法保证的执行顺序的一致。而主备系统则要求严格的顺序性保证。

zk VS etcd

两者都是通用的一致性元信息存储,也都有 watch 来用于变更通知和分发,就这两点,在应用服务的大部分场景下都可以互相替代。

zk 开发的进度和版本更新比较慢了,社区活跃度远远不如 etcd。而且应用性上,如果两者都用过的话,应该都会觉得 etcd 易用性更高 (restful api)。

其他要考虑周边产品的生态问题了,运维和开发如果是 Java 应用更多,那毫无疑问应该用 ZK。如果是搞 Go 的,那么还是 etcd 吧,毕竟有时候遇到问题还是要看源码的。

参考

PreviousRaft协议NextGo

Last updated 2 years ago

丁凯 - ZAB协议选主过程详解
ZK是强一致性吗?
ruby - Zab算法与Paxos算法异同
runzhliu - zk VS etcd
乒乓狂魔 - Raft对比ZAB协议