Kafka 中Zookpeer 的作用-原理与实战

场景

最近, 运维部门的同事碰到一个问题, 向Kafka 中 某个Topic 发送消息总是失败. 调查下来发现, Zookeeper 中记录的该Topic 的Partition Leader 是一个非法的Broker. 也就是说Zookeeper 中, 记录了错误的Kafka 信息.

重启Kafka 和Zookeeper 后, 该问题得到了解决.

在本篇文章中, 会对Kafka 中Zookeer 的具体作用做一个深入的剖析, 包括理论和实战部分.

理论

概览

Zookeeper 主要用来跟踪Kafka 集群中的节点状态, 以及Kafka Topic, message 等等其他信息. 同时, Kafka 依赖于Zookeeper, 没有Zookeeper 是不能运行起来Kafka 的.

  • Controller 选举:
    • Controller 是一个特殊的Broker, 其负责所有Partition 的leader/follower 关系.
    • Zookeeper 负责从Broker 中选举出一个作为Controller, 并确保其唯一性. 同时, 当Controller 宕机时, 选举一个新的.
  • 集群 membership:
    • 记录集群中都有哪些活跃着的Broker.
  • Topic 配置:
    • 有哪些Topic, Topic 都有哪些Partition, Replica 存放在哪里, Leader 是谁.
  • 配额(0.9.0+):
    • 记录每个客户能够读写的数据量.
  • ACLs(0.9.0+):
    • 记录对Topic 的读写控制.
  • high-level consumer(已废弃):
    • 记录consumer group 及其成员和offset 信息.

再谈Zookeeper

Zookeeper 向客户端提供了对一种数据结构访问的服务. 该数据结构类似于Unix 文件系统, 可以认为是数据数或者有继承层次的命名空间.

数据结构的路径使用Unix 惯例. 例如/A/B/C 用来表示节点C 的路径, 其中, 节点C 的父节点是节点B, 节点B 的父节点是节点A.

客户端通过Zookeeper 可对该数据结构进行CRUD 操作.

与Unix 的文件系统不同的是, Zookeeper 中的节点分为永久节点和临时节点, 同时, Zookeeper 中的节点是不能重命名的.

除此之外, Zookeeper 提供了节点add/remove 的watch 功能, 用来在节点更新时获得通知.

实践

环境搭建

  • 下载Kafka, 同时为了研究Zookeeper 的作用, 需要单独下载Zookeeper.
  • 按照Kafka 官方的Quickstart 指南, 运行起来一个Kafka 的集群, 集群内含有3个Broker实例, 同时有一个Zookeeper 实例. 其中, Kafka 的目录我们命名为Kafka 控制台(其bin 目录下有Kafka 的管理工具).
  • 在Zookeeper 的目录下, 运行命令./zkCli.sh来启动来连接到Zookeeper 实例中, 以监视其状态. 此控制台我们命名为ZK 监视端.

初探Zookeeper 目录结构

在ZK 的监视端, 运行ls / , 可以列出所有的顶级节点, 主要包含以下的节点:

  • cluster.
  • brokers.
  • controller.
  • consumer.
  • config.
  • isr_change_notification.

通过字面意思能够理解其记录的内容. 需要说明的是isr_change_notification 节点. 在Kafka 中, Leader 和Follower 的数据同步遵循的是"最终一致"原则, 也就是数据同步会有延迟, 但保证最终数据的一致性. isr 是'in-sync' replicas 的缩写, 代表的是与Leader 数据已经通过过的replica, 它会作为重选Leader 时作为判断依据.

运行ls /brokers/ids 命令, 可以看到输出了[0, 1, 2] , 代表了集群中现有的3台Broker.

创建Topic

  • 在Kafka 控制台创建一个Topic, 该Topic 拥有一个Partition 和3个replica.

    bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic topic-01

  • 在ZK 监视端, 通过ls /brokers/topics 可以看到出现了topic-01 主题.

  • 在ZK 监视端, 通过get /brokers/topics/topic-01 可以获取topic-01 主题的值.

    {"version":1,"partitions":{"0":[0,1,2]}}
    
  • 在ZK 监视端, 通过ls /brokers/topics/topic-01/partitions 来查看该Topic 的Partition.

    [0]
    

    可以看出, 该Topic 只有一个Partition.

  • 在ZK 监视端, 通过get /brokers/topics/topic-01/partitions/0/state 来获取Topic Partition 的信息.

    {"controller_epoch":11,"leader":0,"version":1,"leader_epoch":0,"isr":[0,1,2]}
    

    可以看出, 该Topic 有3个replica, 而且当前状态都是isr(也就是已处于最新状态). 同时, 当前的Leader 是Broker 0.

关闭Leader

  • 在kafka 控制台, 通过bin/kafka-server-stop.sh关闭Leader, 也就是Broker 0.

  • 在ZK 监视端, 通过get /brokers/topics/topic-01/partitions/0/state 来获取Topic Partition 的信息.

    {"controller_epoch":15,"leader":1,"version":1,"leader_epoch":7,"isr":[1,2]}

    可以看出, 系统进行了Leader 的重新选举, 新的Leader 为Broker 1. 当前的isr 队列中有Broker 1 和Broker 2.

关闭Zookeeper

  • 通过Kafka 控制台produce 和consume 数据. 此刻功能一切正常.

    bin/kafka-console-producer.sh --broker-list localhost:9092 --topic topic-01

    bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic topic-01

  • 在Kafka 控制台, 通过bin/zookeeper-server-stop.sh 来关闭Zookeeper 实例.

    此时, 如果Kafka Broker 的控制台窗口还没有关闭, 可以看到Broker 在不停地尝试去获取Zookeeper 的连接.

  • 通过Kafka 控制台, 仍然能够正常地produce 和consume 数据.

  • 在Kafka 控制台, 创建新的Topic 时, 会出现以下的异常:

    [2017-01-06 11:23:23,477] WARN Session 0x0 for server null, unexpected error, closing socket connection and attempting reconnect (org.apache.zookeeper.ClientCnxn)
    java.net.ConnectException: Connection refused
      at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
      at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:717)
      at org.apache.zookeeper.ClientCnxnSocketNIO.doTransport(ClientCnxnSocketNIO.java:361)
      at org.apache.zookeeper.ClientCnxn$SendThread.run(ClientCnxn.java:1141)
    

    创建的客户端会不停尝试, 并一直打印出该异常信息.

  • 如果此时, 通过Kafka 控制台重新启动Zookeeper, 可以发现新建Topic 成功返回. 并且Broker 也成功与Zookeeper 重建了连接,并进行了Topic Partition 和Replica 的同步操作.

额外发现

离开了Zookeeper, Kafka 不能对Topic 进行新增操作, 但是仍然可以produce 和consume 消息.

PS: 在运行过程中, 如果先关闭掉了Zookeeper, 然后再去关闭Kafka, 会发现Kafka 后台一直结束不掉, 这是因为Kafka 会被block 在与Zookeeper 的重连过程中. 解决方法是重启Zookeeper , 然后先关闭Kafka 再关闭Zookeeper.

PPS: 如果想了解Zookeeper 和Kafka 的其它技术细节, 可以移步我的系列文章[Zookeeper 与Kafka].

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,126评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,254评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,445评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,185评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,178评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,970评论 1 284
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,276评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,927评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,400评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,883评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,997评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,646评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,213评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,204评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,423评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,423评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,722评论 2 345

推荐阅读更多精彩内容