Flink的State扩容机制

何为State

为实现增量计算和容错,Flink提出了State机制,本质上State就是用来存放计算过程中各节点的中间结果或元数据等,并提供Exactly-Once语义。

流计算的大部分场景均是增量计算的,数据逐条被处理,每次当前结果均是基于上一次计算结果之上进行处理的,这势必需要将上一次的计算结果进行存储持久化。

目前Flink有3种State存储实现:

  • HeapStateBackend,内存,存放数据量小,用于开发测试,生产环境不建议;
  • FsStateBackend,分布式文件系统(HDFS等),不支持增量,可用于大State,可用于生产环境;
  • RockDBStateBackend,RockDB,支持增量,可用于大State,可用于生产环境。

生产环境下的最佳实践为:

2.jpg

State先在本地存储到RockDB,然后异步写入到HDFS,即避免了HeapStateBackend的单节点资源限制(物理内存、机器宕机丢失数据等),也减少了分布式写入带来的网络IO开销。

State分类

从Operator和Data角度可将State分为2类:

  • OperatorState:Source Connector的实现中就会用OperatorState来记录source数据读取的offset。
  • KeyedState:groupby或partitionBy组成的内容,即为key,每个key均有自己的state,且key与key之间的state不可见。

State扩容

所谓State扩容,指的当算子并行度发生改变时,其需要进行相应的组织调整。

如下图所示:

3.jpg

OperatorState扩容

OperatorState往往以ListState<T>的形式存在,如FlinkKafkaConsumerBase:

@Internal
public abstract class FlinkKafkaConsumerBase<T> extends RichParallelSourceFunction<T> implements
        CheckpointListener,
        ResultTypeQueryable<T>,
        CheckpointedFunction {
    ... 
    /** Accessor for state in the operator state backend. */
    private transient ListState<Tuple2<KafkaTopicPartition, Long>> unionOffsetStates;
    ...
        }

此时,T对应Tuple2<KafkaTopicPartition, Long>,KafkaTopicPartition代表Kafka Topic的一个Partition,Long代表当前Partition的offset。

假设某Topic的partition数目为5,且Source的并行度=1,则对应的State如下所示:

4.jpg

当Source的并行度修改为2之后,Task与State的对应关系如下:

5.jpg

KeyedState扩容

Flink Source执行keyBy之后,各个元素会基于key链接到下游不同的并行Operator上,流计算中同时会涉及到KeyedState的组织。

key的数目一般大于Operator的并行度parallelism,最直观的做法是将key的hash值与并行度parallelism取余。

假设上游10个元素,其keyHash分别为{0, 1, 2, 3, 4, 5, 6, 7, 8, 9},下游Operator的并行度parallelism为2。

  • operatorIndex=0,分配到的元素有0, 2, 4, 6, 8,维护的State-0值为0, 2, 4, 6, 8
  • operatorIndex=1,分配到的元素有1, 3, 5, 7, 9,维护的State-1值为1, 3, 5, 7, 9

假设下游Operator的并行度parallelism为修改为3,此时:

  • operatorIndex=0,分配到的元素有0, 3, 6, 9,维护的State-0值为0, 3, 6, 9
  • operatorIndex=1,分配到的元素有1, 4, 7,维护的State-1值为1, 4, 7
  • operatorIndex=2,分配到的元素有2, 5, 8,维护的State-2值为2, 5, 8

假如并行度parallelism发生改变的话,则前面维护好的State也需要重新组织一遍。KeyedState数据较大时,数据重新组织的代价较高。

为了解决上述问题,Flink采用了一种KeyGroupRange的机制,基本思想是将各元素先分配到最细粒度的组中,Flink将其称为KeyGroup,KeyGroup也是KeyedState的最小组织单位。然后并行Operator持有各自的KeyGroup集合即可,该集合即所谓的KeyGroupRange。

public class KeyGroupRange implements KeyGroupsList, Serializable {
    ...
    private final int startKeyGroup;
    private final int endKeyGroup;
    ...
}

很明显,其通过一个范围来定义集合,范围起点为startKeyGroup,终点为endKeyGroup,左闭右闭。

我们知道,各个算子均有最大并行度maxParallelism,所以可以利用key的hash值与maxParallelism进行取模来完成KeyGroup的构建。

public static int assignToKeyGroup(Object key, int maxParallelism) {
    return computeKeyGroupForKeyHash(key.hashCode(), maxParallelism);
}

public static int computeKeyGroupForKeyHash(int keyHash, int maxParallelism) {
    return MathUtils.murmurHash(keyHash) % maxParallelism;
}

Flink没有直接使用hashcode,而是在hashcode的基础上又调用了murmurHash方法,以保证尽量的散列。

现在有maxParallelism个KeyGroup,需要将其分配到parallelism个并行算子中,每个并行算子持有1个KeyGroupRange,其起终点的计算方式如下:

public static KeyGroupRange computeKeyGroupRangeForOperatorIndex(
    int maxParallelism,
    int parallelism,
    int operatorIndex) {

    checkParallelismPreconditions(parallelism);
    checkParallelismPreconditions(maxParallelism);

    Preconditions.checkArgument(maxParallelism >= parallelism,
        "Maximum parallelism must not be smaller than parallelism.");

    int start = ((operatorIndex * maxParallelism + parallelism - 1) / parallelism);
    int end = ((operatorIndex + 1) * maxParallelism - 1) / parallelism;
    return new KeyGroupRange(start, end);
}

最后,每个元素对应的算子计算方式如下:

public static int assignKeyToParallelOperator(Object key, int maxParallelism, int parallelism) {
    return computeOperatorIndexForKeyGroup(maxParallelism, parallelism, assignToKeyGroup(key, maxParallelism));
}

public static int computeOperatorIndexForKeyGroup(int maxParallelism, int parallelism, int keyGroupId) {
    return keyGroupId * parallelism / maxParallelism;
}

上面说的可能还是有点抽象,下面用1个例子来实际说明:

1.jpg
  • 当parallelism=2时可得到KeyGroupRange:

operatorIndex=0,则得到start=0,end=4:如图kg-keys:0,1,2,3,4
operatorIndex=1,则得到start=5,end=9:如图kg-keys:5,6,7,8,9

  • 当parallelism=3时可得到KeyGroupRange:

operatorIndex=0,则得到start=0,end=3:如图kg-keys:0,1,2,3
operatorIndex=1,则得到start=4,end=6:如图kg-keys:4,5,6
operatorIndex=2,则得到start=7,end=9:如图kg-keys:7,8,9

采用KeyGroupRange机制,只要Flink任务的maxParallelism配置不变,无论算子的parallelism如何变化,底层的KeyedSate均不需要重新组织。

核心思想就是: 不直接操作数据,只操作数据的指针

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,907评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,987评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,298评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,586评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,633评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,488评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,275评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,176评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,619评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,819评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,932评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,655评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,265评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,871评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,994评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,095评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,884评论 2 354

推荐阅读更多精彩内容