前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >flink window 实现机制分析

flink window 实现机制分析

作者头像
Flink实战剖析
发布2022-04-18 11:13:47
4850
发布2022-04-18 11:13:47
举报
文章被收录于专栏:Flink实战剖析Flink实战剖析

在flink streaming 处理中窗口是比较常见的操作, 例如窗口sum、max、min等,窗口构建主要包含:Assigner、Trigger、Function、Evictor, Assigner: 窗口分配器, 当有一个元素到达判断窗口属于哪一个窗口,对于滚动窗口分配给一个窗口, 对于滑动窗口可能会分配给多个窗口; Trigger: 窗口触发器, 决定什么时候触发窗口操作; Function: 窗口函数, 对窗口中数据执行的操作; Evictor: 窗口驱逐器, 并不常用,在Function 前后可以做一些额外的数据 处理工作。其整体工作流程就是:Assigner决定数据所属的窗口, 当满足一定条件Trigger触发窗口执行窗口Function, 在Function前后可以执行一些Evictor操作。

接下来聚焦几个问题:

1. 窗口数据如何分配

2. 窗口数据在触发前保存在哪里

3. 窗口操作是如何触发的

4. 窗口数据什么时候清理

5. 延时数据与延时窗口的区别

6. 为什么聚合操作使用ReduceFunction 比WindowFunction 性能要好

7. 窗口 allowedLateness 对窗口的影响

窗口处理的流程都是围绕WindowOperator 这个类来执行,接下来将会根据源码来解析这几个问题。

1. 窗口数据分配是由WindowAssigner来完成,常见按照时间进行分配,TumblingEventTimeWindows(滚动事件时间分配器)、SlidingEventTimeWindows(滑动事件时间分配器、TumblingProcessingTimeWindows(滚动处理时间分配器)、SlidingProcessingTimeWindows(滑动处理时间分配器),数据流入开始调用WindowAssigner.assignWindows 返回一个Window对象的集合,assignWindows会调用TimeWindow.getWindowStartWithOffset 计算所属窗口的startTime , 计算逻辑timestamp - (timestamp - offset + windowSize) % windowSize 这种计算方式默认情况会生成以0为startTime,的窗口, 如果有特殊需求例如需要-7.5-7.5、7.5-22.5这样的窗口, 那么可以设置offset偏移值, 相对于0的偏移, 对于此情况可以设置offset为7.5;

2. 窗口数据如何保存:flink 是有状态的流处理, 其中间处理数据都会保存在 state中, 那么对于窗口数据也不例外, 在触发前都会保存在state 中, 保证了其容错机制, 对于每条数据的保存处理都会调用windowState.add(element.getValue()), 那么对于一个keyed window是如何区分各个窗口的数据的呢?在这里可以理解为有一个Map<Key,Window,List<Value>> 的数据结构其中key 表示具体的分组key值,Window 表示一个namespace 一个具体的window, List<Value>表示窗口中的数据;

3. 窗口的触发:我们都知道当窗口的endTime 小于当前watermark 的时候就会触犯窗口操作, 但是这个说话其实并不严谨, 其实还有另外一种情况, 当到达的数据满足其所属的窗口的endTime 小于当前watermark时会触发窗口操作, 这两种说法类型但是分别对应两种触发机制:a . 基于watermark 的驱动触发 b.基于事件时间的触发, 以事件时间处理类型为例,在WindowOperator 处理数据的processElement 中会调用trigger.onElement方法,如果当前数据所属的窗口endTime 小于当前 watermark, 那么就会registerEventTimeTimer 注册一个事件时间的触发器, 会将当前的Window对象与endTime封装成为一个IntervalTimer放入一个优先级队列中(后续将会着重分享Flink定时系统), 当处理watermark判断其值大于队列中endTime 的则触发窗口,这对应机制a, 机制b的触发就是在trigger.onElement中如果当前watermark大于窗口endTime则直接触发, 这种机制需要窗口allowedLateness >0;

4. 窗口数据清理:窗口中间数据是保存在state中即内存中, 对于已经结束的窗口这部分数据已经是无效, 需要被清理掉, WindowOperator中在processElement中会调用registerCleanupTimer方法, 注册定时清理窗口数据,数据的清理时间是窗口的endTime+allowedLateness , allowedLateness 在事件时间处理中才有效, 此处注册的定时器就是生成一个IntervalTimer放入优先级队列中, 当到达窗口的watermark的大小大于endTime+allowedLateness就会在窗口函数执行之后触发清理操作, 默认allowedLateness=0, 也会简单认为窗口执行之后就会执行清理操作;

5. 延时数据与延时窗口的区别:在WindowOperator中提供了两个方法isWindowLate与isElementLate, isWindowLate判断是否是延时窗口数据,依据是当该数据所属窗口的endTime小于当前的watermark就认为该数据应该被丢弃, isElementLate判断是否是延时数据, 依据是该数据时间小于当前的watermark,在窗口中可以设置lateDataOutputTag, 那么会将延时窗口数据放入该outputTag中,我们平时所属的处理窗口的延时数据真正意义上是处理延时窗口数据即满足isWindowLate的数据。需要注意在滑动窗口一个element可能属于多个窗口, 只要满足一个窗口是非延时的,那么就不会流入lateDataOutputTag中;

6. ReduceFunction与WindowFunction的区别:在实际开发中经常有窗口聚合类的操作sum/min等, 按照一般的思考方式当窗口触发直接聚合窗口所有内的数据即可,即使用WindowFunction,但是这种方式会保存窗口所有的明细数据,对内存压力会比较大, 那么可不可以边接受数据边聚合数据呢,那么内存中对于一个窗口相同的key永远只保存一个聚合的值,可以使用ReduceFunction, ReduceFunction在其内部实现机制是定义了一个ReduceState,改state会使用ReduceFunction进行数据聚合, 当窗口触发是会执行PassThroughWindowFunction, 该Function仅仅是将窗口数据emit;

7. 窗口allowedLateness : 设置了allowedLateness就相当于设置了窗口延时处理的二道防护线,在默认情况下当watermark大于窗口的endTime就会触发窗口操作并且执行窗口清理工作,但是当allowedLateness大于0,依据窗口清理规则watermark大于窗口endTime但是小于endTime+allowedLateness仅仅会触发窗口函数但是不会清理窗口,当后续后该窗口的数据到达那么会再次触发窗口操作,会造成两方面的影响 a: 内存消耗变大,窗口数据需要保留更长时间;b: 窗口数据的输出需要保持幂等性,即能够覆盖之前的输出结果,因为窗口函数会被多次触发。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-07-29,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Flink实战剖析 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档