首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

(网盘)Flink 从0到1实战实时风控系统

(网盘)Flink 从0到1实战实时风控系统

download:https://97yrbl.com/f-55.html

Flink简介

Flink中心是一个流式的数据流履行引擎,其针对数据流的散布式核算供给了数据散布、数据通信以及容错机制等功能。依据流履行引擎,Flink供给了诸多更高笼统层的API以便用户编写散布式使命:

DataSet API, 对静态数据进行批处理操作,将静态数据笼统成散布式的数据集,用户能够方便地使用Flink供给的各种操作符对散布式数据集进行处理,支撑Java、Scala和Python。

DataStream API,对数据流进行流处理操作,将流式的数据笼统成散布式的数据流,用户能够方便地对散布式数据流进行各种操作,支撑Java和Scala。

Table API,对结构化数据进行查询操作,将结构化数据笼统成联络表,并经过类SQL的DSL对联络表进行各种查询操作,支撑Java和Scala。

此外,Flink还针对特定的应用范畴供给了范畴库,例如:

Flink ML,Flink的机器学习库,供给了机器学习Pipelines API并完成了多种机器学习算法。

Gelly,Flink的图核算库,供给了图核算的相关API及多种图核算算法完成。

Flink的技术栈如图1所示:

图1 Flink技术栈

此外,Flink也能够方便地和Hadoop生态圈中其他项目集成,例如Flink能够读取存储在HDFS或HBase中的静态数据,以Kafka作为流式的数据源,直接重用MapReduce或Storm代码,或是经过YARN申请集群资源等。

共同的批处理与流处理体系

在大数据处理范畴,批处理使命与流处理使命一般被认为是两种不同的使命,一个大数据项目一般会被规划为只能处理其中一种使命,例如Apache Storm、Apache Smaza只支撑流处理使命,而Aapche MapReduce、Apache Tez、Apache Spark只支撑批处理使命。Spark Streaming是Apache Spark之上支撑流处理使命的子体系,看似一个特例,实则否则——Spark Streaming采用了一种micro-batch的架构,即把输入的数据流切分红细粒度的batch,并为每一个batch数据提交一个批处理的Spark使命,所以Spark Streaming本质上仍是依据Spark批处理体系对流式数据进行处理,和Apache Storm、Apache Smaza等彻底流式的数据处理方法彻底不同。经过其灵敏的履行引擎,Flink能够一起支撑批处理使命与流处理使命。

在履行引擎这一层,流处理体系与批处理体系最大不同在于节点间的数据传输方法。关于一个流处理体系,其节点间数据传输的规范模型是:当一条数据被处理完成后,序列化到缓存中,然后立刻经过网络传输到下一个节点,由下一个节点继续处理。而关于一个批处理体系,其节点间数据传输的规范模型是:当一条数据被处理完成后,序列化到缓存中,并不会立刻经过网络传输到下一个节点,当缓存写满,就耐久化到本地硬盘上,当一切数据都被处理完成后,才开端将处理后的数据经过网络传输到下一个节点。这两种数据传输形式是两个极点,对应的是流处理体系对低推迟的要求和批处理体系对高吞吐量的要求。Flink的履行引擎采用了一种十分灵敏的方法,一起支撑了这两种数据传输模型。Flink以固定的缓存块为单位进行网络数据传输,用户能够经过缓存块超时值指定缓存块的传输时机。如果缓存块的超时值为0,则Flink的数据传输方法相似上文所说到流处理体系的规范模型,此刻体系能够取得最低的处理推迟。如果缓存块的超时值为无限大,则Flink的数据传输方法相似上文所说到批处理体系的规范模型,此刻体系能够取得最高的吞吐量。一起缓存块的超时值也能够设置为0到无限大之间的恣意值。缓存块的超时阈值越小,则Flink流处理履行引擎的数据处理推迟越低,但吞吐量也会下降,反之亦然。经过调整缓存块的超时阈值,用户可依据需求灵敏地权衡体系推迟和吞吐量。

图2 Flink履行引擎数据传输形式

在共同的流式履行引擎基础上,Flink一起支撑了流核算和批处理,并对性能(推迟、吞吐量等)有所保障。相关于其他原生的流处理与批处理体系,并没有因为共同履行引擎而受到影响从而大幅度减轻了用户安装、布置、监控、保护等本钱。

Flink流处理的容错机制

关于一个散布式体系来说,单个进程或是节点溃散导致整个Job失利是经常发生的事情,在反常发生时不会丢掉用户数据并能主动康复才是散布式体系必须支撑的特性之一。本节首要介绍Flink流处理体系使命级别的容错机制。

批处理体系比较简略完成容错机制,因为文件能够重复访问,当某个使命失利后,重启该使命即可。可是到了流处理体系,因为数据源是无限的数据流,从而导致一个流处理使命履行几个月的情况,将一切数据缓存或是耐久化,留待今后重复访问基本上是不可行的。Flink依据散布式快照与可部分重发的数据源完成了容错。用户可自界说对整个Job进行快照的时刻距离,当使命失利时,Flink会将整个Job康复到最近一次快照,并从数据源重发快照之后的数据。Flink的散布式快照完成学习了Chandy和Lamport在1985年宣布的一篇关于散布式快照的论文,其完成的首要思想如下:

按照用户自界说的散布式快照距离时刻,Flink会定时在一切数据源中刺进一种特别的快照符号音讯,这些快照符号音讯和其他音讯一样在DAG中流动,可是不会被用户界说的事务逻辑所处理,每一个快照符号音讯都将其地点的数据流分红两部分:本次快照数据和下次快照数据。

图3 Flink包括快照符号音讯的音讯流

快照符号音讯沿着DAG流经各个操作符,当操作符处理到快照符号音讯时,会对自己的状况进行快照,并存储起来。当一个操作符有多个输入的时分,Flink会将先抵达的快照符号音讯及其之后的音讯缓存起来,当一切的输入中对应该次快照的快照符号音讯悉数抵达后,操作符对自己的状况快照并存储,之后处理一切快照符号音讯之后的已缓存音讯。操作符对自己的状况快照并存储能够是异步与增量的操作,并不需求堵塞音讯的处理。散布式快照的流程如图4所示:

图4 Flink散布式快照流程图

当一切的Data Sink(结尾操作符)都收到快照符号信息并对自己的状况快照和存储后,整个散布式快照就完成了,一起告诉数据源开释该快照符号音讯之前的一切音讯。若之后发生节点溃散等反常情况时,只需求康复之前存储的散布式快照状况,并从数据源重发该快照今后的音讯就能够了。

Exactly-Once是流处理体系需求支撑的一个非常重要的特性,它确保每一条音讯只被流处理体系处理一次,许多流处理使命的事务逻辑都依赖于Exactly-Once特性。相关于At-Least-Once或是At-Most-Once, Exactly-Once特性对流处理体系的要求更为严格,完成也更加困难。Flink依据散布式快照完成了Exactly-Once特性。

相关于其他流处理体系的容错计划,Flink依据散布式快照的计划在功能和性能方面都具有很多优点,包括:

低推迟。因为操作符状况的存储能够异步,所以进行快照的过程基本上不会堵塞音讯的处理,因而不会对音讯推迟发生负面影响。

高吞吐量。当操作符状况较少时,对吞吐量基本没有影响。当操作符状况较多时,相关于其他的容错机制,散布式快照的时刻距离是用户自界说的,所以用户能够权衡过错康复时刻和吞吐量要求来调整散布式快照的时刻距离。

与事务逻辑的阻隔。Flink的散布式快照机制与用户的事务逻辑是彻底阻隔的,用户的事务逻辑不会依赖或是对散布式快照发生任何影响。

过错康复代价。散布式快照的时刻距离越短,过错康复的时刻越少,与吞吐量负相关。

Flink流处理的时刻窗口

关于流处理体系来说,流入的音讯不存在上限,所以关于聚合或是衔接等操作,流处理体系需求对流入的音讯进行分段,然后依据每一段数据进行聚合或是衔接。音讯的分段即称为窗口,流处理体系支撑的窗口有很多类型,最常见的便是时刻窗口,依据时刻距离对音讯进行分段处理。本节首要介绍Flink流处理体系支撑的各种时刻窗口。

关于目前大部分流处理体系来说,时刻窗口一般是依据Task地点节点的本地时钟进行切分,这种方法完成起来比较简略,不会发生堵塞。可是或许无法满足某些应用需求,比如:

音讯自身带有时刻戳,用户期望按照音讯自身的时刻特性进行分段处理。

因为不同节点的时钟或许不同,以及音讯在流经各个节点的推迟不同,在某个节点归于同一个时刻窗口处理的音讯,流到下一个节点时或许被切分到不同的时刻窗口中,从而发生不符合预期的成果。

Flink支撑3种类型的时刻窗口,分别适用于用户关于时刻窗口不同类型的要求:

Operator Time。依据Task地点节点的本地时钟来切分的时刻窗口。

Event Time。音讯自带时刻戳,依据音讯的时刻戳进行处理,确保时刻戳在同一个时刻窗口的一切音讯一定会被正确处理。因为音讯或许乱序流入Task,所以Task需求缓存当前时刻窗口音讯处理的状况,直到承认归于该时刻窗口的一切音讯都被处理,才能够开释,如果乱序的音讯推迟很高会影响散布式体系的吞吐量和推迟。

Ingress Time。有时音讯自身并不带有时刻戳信息,但用户依然期望按照音讯而不是节点时钟区分时刻窗口,例如防止上面说到的第二个问题,此刻能够在音讯源流入Flink流处理体系时主动生成增量的时刻戳赋予音讯,之后处理的流程与Event Time相同。Ingress Time能够看成是Event Time的一个特例,因为其在音讯源处时刻戳一定是有序的,所以在流处理体系中,相关于Event Time,其乱序的音讯推迟不会很高,因而对Flink散布式体系的吞吐量和推迟的影响也会更小。

Event Time时刻窗口的完成

Flink学习了Google的MillWheel项目,经过WaterMark来支撑依据Event Time的时刻窗口。

当操作符经过依据Event Time的时刻窗口来处理数据时,它必须在确定一切归于该时刻窗口的音讯悉数流入此操作符后才能开端数据处理。可是因为音讯或许是乱序的,所以操作符无法直接承认何时一切归于该时刻窗口的音讯悉数流入此操作符。WaterMark包括一个时刻戳,Flink使用WaterMark符号一切小于该时刻戳的音讯都已流入,Flink的数据源在承认一切小于某个时刻戳的音讯都已输出到Flink流处理体系后,会生成一个包括该时刻戳的WaterMark,刺进到音讯流中输出到Flink流处理体系中,Flink操作符按照时刻窗口缓存一切流入的音讯,当操作符处理到WaterMark时,它对一切小于该WaterMark时刻戳的时刻窗口数据进行处理并发送到下一个操作符节点,然后也将WaterMark发送到下一个操作符节点。

为了确保能够处理一切归于某个时刻窗口的音讯,操作符必须比及大于这个时刻窗口的WaterMark之后才能开端对该时刻窗口的音讯进行处理,相关于依据Operator Time的时刻窗口,Flink需求占用更多内存,且会直接影响音讯处理的推迟时刻。对此,一个或许的优化办法是,关于聚合类的操作符,能够提前对部分音讯进行聚合操作,当有归于该时刻窗口的新音讯流入时,依据之前的部分聚合成果继续核算,这样的话,只需缓存中间核算成果即可,无需缓存该时刻窗口的一切音讯。

关于依据Event Time时刻窗口的操作符来说,流入WaterMark的时刻戳与当前节点的时钟共同是最简略抱负的状况,可是在实践环境中是不或许的,因为音讯的乱序以及前面节点处理效率的不同,总是会有某些音讯流入时刻大于其自身的时刻戳,实在WaterMark时刻戳与抱负情况下WaterMark时刻戳的差别称为Time Skew

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OC_jkj8NQPFDKLYzD5xiEHxg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券