Wormhole:可靠的发布-订阅系统

Wormhole是Facebook内部使用的一个Pub-Sub系统,目前还没有开源。
在网上搜索论文相关内容的时候,发现几个网站,首先是该篇论文有个视频:
https://www.usenix.org/conference/nsdi15/technical-sessions/presentation/sharma
由此知道了OSDI(Operating Systems Design and Implementation )大会,并且搜索到一个最佳论文的网址:
https://www.usenix.org/conferences/best-papers
以后可以关注下。
第二个发现的好的内容是:
https://blog.acolyer.org/2015/05/14/wormhole-reliable-pub-sub-to-support-geo-replicated-internet-services/
该博客会每天推送一篇论文,特别棒。
第3个是发现的一个学校课程:https://courses.engr.illinois.edu/cs525/sched.htm
里面有介绍该篇论文的ppt,其他内容也特别棒,可以关注下。

下面开始正式开始论文阅读,本文是mit 6.824课程的第16课学习记录。


意义

首先回答下,我们为什么阅读这篇论文,pub-sub在分布式系统中常见的模块,也已经有好多类似的系统,如Kafka,SIENA,Thialfi,RabbitMQ等等,那为什么又来了一个Wormhole呢?

不像其他pub-sub系统,Wormhole没有自己的存储来保存消息,它也不需要数据源在原有的更新路径上去插入一个操作来发送消息,是非侵入式的,那Wormhole怎么获取到更新的数据呢?

Wormhole目前支持的数据源有 MySQL, HDFS, 和 RocksDB,Wormhole直接扫描transaction logs,Wormhole直接部署在数据源的机器上,这样子还带来一个好处,Wormhole本身不需要做任何的地域复制(geo-replication)的策略,只需要依赖于数据源的geo-replication策略即可。当本地的sub收到update通知的时候,意味着本地的数据源也已经收到更新了。

下面阐述下Wormhole的出现是为了解决什么问题?

  1. 不同的消费速度:应用消费更新的速度不同,慢速应用不应该阻碍快消费的应用。
  2. 至少一次语义:所有的更新至少通知一次。
  3. 更新的有序性:当新更新到来的时候,应确保之前所有的更新都已经通知过了。
  4. 容错:系统需要能应对数据源和应用的错误。

架构

图片

Wormhole通过读取事务日志来获取更新,但是最后传递给sub的更新都是格式统一的key-value形式,称为:Wormhole update。

Wormhole将所有的订阅者信息存储在基于ZooKeeper的配置系统中,订阅者收到的一系列updates称为flow,每个flow都会维护一个当前订阅者已经消费的更新位置,这个信息是由在publisher维护的,每个flow都会有这个信息,称为datamarkers,那如何更新这个信息呢?如果采用传统的应用ack机制,会对性能造成影响,于是采取的做法是周期性的ack机制,另一个原因是由于pub和sub之间采用tcp通信,我们可以不用担心消息丢失,可以放心的周期性更新datamarkers

A datamarker for a flow is essentially a pointer in the datastore log that indicates the position of the last received and acknowledged update of the flow by the subscriber.

下面回答下一个问题:datamarkers存储在哪?
Wormhole支持两种类型的数据中心:单副本和多副本,多副本一般是多地域分布数据中心。于是Wormhole就有了两种投递:

  • single-copy reliable delivery (SCRD)
  • multiple-copy reliable delivery (MCRD).

对于SCRD,datamarkers可以直接存储在本地的存储设备上,因为存储设备挂了,markers丢失也无所谓了。
对于MCRD,markers存储在zookeeper上,如果一个publisher挂了,新的publisher可以从zookeeper中读取markers,接着发送。但是这带来的一个问题是不同的副本,其存储的位置可能不同,如图:

图片

于是就发明了logical position。但是经常性的同步数据到zookeeper会有性能损耗,因此也是周期性的动作。

优化

回到之前提过的Wormhole有别于其他pub-sub系统的一个点就是直接读取transaction log,这样子就会导致对于db读压来大,于是就有了优化Caravan,其背后的思想是:如果每个flow都有一个reader,会对DB造成太大的负载,而且稳定的情况下,其实每个reader读取到的都是同样的updates;如果所有的flows都是同一个reader呢?这会造成速度不一样的应用都需要同样速度读,那解决方案自然就是相同速度的flows分配一个reader,叫caravan,给出一张图


图片

可以看到caravan多,延迟就少,但是读压力大,caravan少,延迟大,但是读压力小。

总结

Wormhole提供了一个不一样的pub-sub系统,Wormhole利用了存储系统的transaction log来提供一个可靠的、有序的更新事件流,并能支持单副本和多副本数据存储,通过优化读取transaction log尽可能降低对原存储系统的压力。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,290评论 6 491
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,107评论 2 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 156,872评论 0 347
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,415评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,453评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,784评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,927评论 3 406
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,691评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,137评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,472评论 2 326
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,622评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,289评论 4 329
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,887评论 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,741评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,977评论 1 265
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,316评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,490评论 2 348

推荐阅读更多精彩内容