前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >Flink 实践教程-进阶(7):基础运维

Flink 实践教程-进阶(7):基础运维

作者头像
腾讯云大数据
发布于 2022-01-21 13:10:05
发布于 2022-01-21 13:10:05
2.5K00
代码可运行
举报
文章被收录于专栏:腾讯云大数据腾讯云大数据
运行总次数:0
代码可运行

流计算 Oceanus 简介

流计算 Oceanus大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。

本文首先介绍了几种最常见、最基础的错误,用户在使用的时候可以尽量规避的问题。接下来介绍了流计算 Oceanus 平台的监控系统,可以帮助用户实时了解作业各个层级的明细及运行状态。然后借助于日志系统帮助诊断作业出现的错误及原因。

基本错误

缺少 DML 语句

一个完整的 Oceanus SQL 作业(JAR 作业里使用 SQL 语句)主要包含以下几个模块:Source(DDL)、Sink(DDL)和 INSERT(DML)语句。在实际应用中经常碰见客户在创建完 Source 和 Sink 后不写 INSERT 语句,导致在【语法检查】时报如下错误。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
语法检查失败:java.lang.IllegalStateException: No operators defined in streaming topology. Cannot generate StreamGraph.

数据类型映射

数据类型映射错误也是一个比较常见的错误。流计算 Oceanus 官网也对各种数据库字段类型与 Flink 字段类型的对应关系做了陈列,具体可参考 开发指南概述 [1] 里面的【上下游开发指南】,本文就不再重复。

连接超时/失败

上下游地址、库表是每个 DDL 语句的配置参数必填项。在【语法检查】时,平台并不会检查 DDL 配置参数的正确性,这些检查通常在程序运行时检查。下列关键字代表外部系统访问(例如 MySQLKafka 等)可能因为网络原因出现了超时。结果中可能会有很多配置相关的内容,请自行甄别是否是报错。

  • Kafka 的 Timeout expired while fetching topic metadata 表示初始化超时; 
  • MySQL 的 Communications link failure 表示连接中断(可能是很长时间没有数据流入,造成客户端超时)。 

下面例子为 Kafka 作为 Source,MySQL 作为 Sink 的一个连接错误日志演示:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
// example: kafka source 内网地址填写错误导致报错org.apache.flink.runtime.JobException: Recovery is suppressed by FixedDelayRestartBackoffTimeStrategy(maxNumberRestartAttempts=15, backoffTimeMS=10000)  Caused by: org.apache.kafka.common.errors.TimeoutException: Timeout expired while fetching topic metadata// example: kafka topic 不存在报错java.lang.RuntimeException: Could not fetch partitions for oceanus_advanced10_input. Make sure that the topic exists.
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
// example: JDBC(MySQL) Sink 连接地址填写错误导致报错java.io.IOException: unable to open JDBC writer  Caused by: com.mysql.cj.jdbc.exceptions.CommunicationsException: Communications link failure// example: JDBC(MySQL) Sink 端用户无写入权限或密码填写错误Caused by: java.io.IOException: unable to open JDBC writer  Caused by: java.sql.SQLException: Access denied for user 'joylyu'@'10.0.0.101' (using password: YES)

主键问题

有 update/delete 数据(回撤流数据)的情况下,Sink 端必须定义主键,这种情况无主键定义或者主键定义错误也是语法检查失败常见的错误。Sink 端需定义主键的情况如下:

  • Source 使用 Flink CDC 系列(这种情况下 Source 也需要定义主键)。
  • 数据转换过程中有 update/delete 数据存在。
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
// example:数据转换过程中去重,Sink 端无主键定义报错语法检查失败:java.lang.IllegalStateException: please declare primary key for sink table when query contains update/delete record.

窗口函数聚合问题

Flink 1.13 已经支持 Windowing TVF 函数,这种函数目前需要单独配合聚合函数使用,单独使用的场景暂时还不支持(社区后面会做优化支持)。Windowing TVF 函数相比于之前的窗口函数的写法(例如 GROUP BY TUMBLE(time_stamp,INTERVAL '1' MINUTE))更符合 SQL 写法规范,底层优化逻辑也更好,在使用窗口函数的时候推荐大家优先使用 Windowing TVF 函数。需要注意的是,窗口函数并不能处理更新(update)和删除(delete)数据,当有这类数据进入窗口函数时,报错如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
语法检查失败:org.apache.flink.table.api.TableException: StreamPhysicalWindowAggregate doesn't support consuming update and delete changes which is produced by node Deduplicate(keep=[FirstRow], key=[order_id], order=[ROWTIME])

下面是几种常见的错误用法:

  1. Source Connector 使用 CDC 系列,之后使用窗口聚合分析。
  2. 先去重,后使用窗口聚合函数,例如下面例子。
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
-- 以下为错误演示-- 将原始数据去重CREATE VIEW kafka_json_source_view ASSELECT order_id, num, event_timeFROM ( SELECT *,  ROW_NUMBER() OVER (PARTITION BY order_id ORDER BY event_time ASC) AS row_num FROM kafka_json_source_table)WHERE row_num = 1;-- 之后进行开窗后插入INSERT INTO jdbc_upsert_sink_tableSELECTwindow_start,window_end,SUM(num) AS numFROM TABLE(   -- 下面这句 SQL 就是 windowing TVF 的使用方法  TUMBLE(TABLE kafka_json_source_view,DESCRIPTOR(event_time),INTERVAL '1' MINUTES)) GROUP BY window_start,window_end;

JAR 包过大

在 Oceanus 控制台,【依赖管理】里面新建依赖上传 JAR 包,JAR 包大小限制为 150M。在实际使用中经常碰见用户打得 JAR 包过大,超过 150M 而不允许上传的情况。实际上 Oceanus 平台已经内置了 Flink 相关的 JAR 包,用户在打包时不用将这些 JAR 打进去,只需要在 POM 里面 scope设置为provided 即可,例如:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<!--example--><dependency>   <groupId>org.apache.flink</groupId>   <artifactId>flink-streaming-java_2.11</artifactId>   <version>1.13.2</version>   <scope>provided</scope></dependency>

找不到主类

JAR 包打好后放到 Oceanus 平台运行,首先需要指定运行的【主程序包】及相对应的版本(即为用户上传的业务代码包),并选择【主类】。【作业参数】>【内置 Connector】选择对应的 Connector,如有业务需要也可选择【引用程序包】。在正式运行之前请检查: 

  • 类名是否有拼写错误
  • 确定是否将相关的业务代码依赖打进 JAR 包中

基础运维

作业监控

流计算 Oceanus 提供强大的作业监控能力,我们可以通过【监控】项查看作业的各项指标,包括每秒数据流入条数、每秒数据流出条数、算计计算总耗时、目的端 Watermark 延时、作业重启次数,甚至更细化到 CheckPoint、JobManager、TaskManager、Task 内的各项细化指标,具体可以查看 Oceanus 官网文档 查看作业监控信息 [2]。 当然在控制台的作业列表界面,单击右上角的【云监控】,即可进入 云监控控制台 [3],查看更为详细的监控指标。在此还可以配置作业专属的 监控告警策略 [4]。云监控监控指标主要包括七大维度,分别为:

  • 作业运行信息类
  • JobManager 运行信息类
  • TaskManager 运行信息类
  • JobManager GC 类
  • TaskManager GC 类
  • 作业 Checkpoint 信息类
  • ETL 运行信息类  

下图为作业运行信息类示例

此外,流计算 Oceanus 还支持将 Flink 指标上报到 Prometheus,用户可以自行保存、分析和展示作业的各项指标。具体查看 接入 Prometheus 自定义监控 [5]。流计算 Oceanus 平台的监控系统极大的方便用户实时查看作业的运行情况。

作业日志

在不同业务场景下可能出现不同的错误,常见的例如作业失败、OOM、JVM 退出等,具体可以参见 Oceanus 官网 日志诊断指南 [6]。除了这些常见异常,文档也对其他的报错信息进行了指导分析,如快照失败(超时)、超时/失败(上章节已说明)、异常、WARN 和 ERROR 日志、可忽略的报错信息。

  • 作业失败:通过 from RUNNING to FAILED 关键字可以搜索到作业崩溃的直接原因,异常栈中的 Caused by 后即为故障信息。
  • 是否发生过 OOM:如果出现了 java.lang.OutOfMemoryError 关键字,说明很可能出现了 OOM 堆内存溢出。需尝试增加作业的算子并行度(CU)数和优化内存占用,避免内存泄露。
  • JVM 退出等致命错误:进程退出码通常出现在 exit code/shutting down JVM/fatal/kill/killing 关键字后,可以辅助定位 JVM 或 Akka 等发生了致命错误被强制关闭等的错误。

总结

本文首先对出现的最基础的、用户可以自己解决的常见报错做了一些总结,这些错误常常出现在作业启动之前,所以在作业正式启动之前,用户需要自己检查好这些类型的错误,保证作业能够顺利的启动。之后介绍了下作业启动之后的一些基础运维手段,包括实时监控和告警通知,方便用户及时了解作业的具体运行情况。最后介绍了在作业失败之后通过日志关键字定位问题的方法,具体可以查看 日志诊断指南[6]。

基本错误:

基本错误类型

解决办法

缺少 DML 语句

增加 INSERT(DML)语句,INSERT 语句随 SELECT 语句一起使用

数据类型映射

参照 Oceanus 官网文档,注意上下游生态产品数据类型与 Flink 类型的映射

连接超时/失败

正确填写上下游生态产品的连接参数

主键问题

注意主键的正确使用方式,Upsert 类型数据需定义主键

窗口函数聚合问题

配合聚合操作正确、优先使用 Windowing TVF 功能(Flink >= 1.13)

JAR 包过大

POM 里面将 scope 设置为 provided

找不到主类

1、检查 JAR 包主类名是否填写错误。2、检查是否将主类打包进去

常见异常关键字:

常见运行错误类型

关键字

作业失败原因

通过 from RUNNING to FAILED 关键字搜索,Caused by 后即为失败原因

是否发生过 OOM

如果出现了 java.lang.OutOfMemoryError 关键字,说明很可能出现了 OOM 堆内存溢出。需尝试增加作业的算子并行度(CU)数和优化内存占用,避免内存泄露

JVM 退出等致命错误

进程退出码通常出现在以下关键字后,可以辅助定位 JVM 或 Akka 等发生了致命错误被强制关闭等的错误:exit code OR shutting down JVM OR fatal OR kill OR killing

快照失败(超时)

如果出现了下列该关键字,说明快照失败,请根据原因进行进一步的分析。例如,declined 表示由于资源未到位(作业并未处于运行中)、个别算子已进入 FINISHED 状态、快照超时、快照文件不完整等原因,造成了快照的失败:Checkpoint was declined/Checkpoint was canceled/Checkpoint expired/job has failed/Task has failed/Failure to finalize

超时/失败

下列关键字代表外部系统访问(例如 MySQL、Kafka 等)可能因为网络原因出现了超时。结果中可能会有很多配置相关的内容,请自行甄别是否是报错:java.util.concurrent.TimeoutException/timeout/failure/timed out/failed

异常

搜索 Exception 关键字,可以从各级异常栈的 Caused by 中看到具体的异常

WARN 和 ERROR 日志

一般情况下也可以搜索所有含 WARN 和 ERROR 关键字的日志,可能有较多结果,请注意筛选过滤有价值的信息

可忽略的报错信息

参见 日志诊断指南 [6]

参考链接

[1] 开发指南概述:https://cloud.tencent.com/document/product/849/48242

[2] 查看作业监控信息:https://cloud.tencent.com/document/product/849/48294

[3] 云监控控制台:https://console.cloud.tencent.com/monitor/product/oceanus

[4] 监控告警策略:https://cloud.tencent.com/document/product/849/48293

[5] 接入 Prometheus 自定义监控:https://cloud.tencent.com/document/product/849/55239

[6] 日志诊断指南:https://cloud.tencent.com/document/product/849/53959

流计算 Oceanus 限量秒杀专享活动火爆进行中↓↓

点击文末「阅读原文」,了解腾讯云流计算 Oceanus 更多信息~

腾讯云大数据

长按二维码 关注我们

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-01-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯云大数据 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Flink 实践教程:进阶5-乱序调整
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
吴云涛
2021/12/28
7072
Flink 实践教程:进阶5-乱序调整
Flink 实践教程:进阶4-窗口 TOP N
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
吴云涛
2021/12/21
1K1
Flink 实践教程:进阶4-窗口 TOP N
实时监控:基于流计算 Oceanus ( Flink ) 实现系统和应用级实时监控
---- 作者:吴云涛,腾讯 CSIG 高级工程师 本文描述了如何使用腾讯云大数据组件来完成实时监控系统的设计和实现,通过实时采集并分析云服务器(CVM)及其 App 应用的 CPU和内存等资源消耗数据,以短信、电话、微信消息等方式实时反馈监控告警信息,高效地保障系统稳健运行。运用云化的 Kafka、Flink、ES 等组件,大大减少了开发运维人员的投入。 一、解决方案描述 (一)概述 本方案结合腾讯云 CKafka、流计算 Oceanus (Flink)、 Elasticsearch、Promethe
腾讯技术工程官方号
2021/10/14
2.3K0
Flink 实践教程:进阶3-窗口操作
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
吴云涛
2021/12/21
6891
Flink 实践教程:进阶3-窗口操作
Flink 实践教程:进阶11-SQL 关联:Regular Join
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
吴云涛
2022/03/28
1K5
Flink 实践教程:进阶11-SQL 关联:Regular Join
实时监控:基于流计算 Oceanus(Flink) 实现系统和应用级实时监控
本文描述了如何使用腾讯云大数据组件来完成实时监控系统的设计和实现,通过实时采集并分析云服务器(CVM)及其 App 应用的 CPU和内存等资源消耗数据,以短信、电话、微信消息等方式实时反馈监控告警信息,高效地保障系统稳健运行。运用云化的 Kafka、Flink、ES 等组件,大大减少了开发运维人员的投入。
吴云涛
2021/09/09
6.5K3
实时监控:基于流计算 Oceanus(Flink) 实现系统和应用级实时监控
Flink 实践教程-进阶(9):自定义表值函数(UDTF)
作者:腾讯云流计算 Oceanus 团队 流计算 Oceanus 简介 流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。 本文将为您详细介绍如何使用自定义表值函数(UDTF),并将处理后的数据存入 MySQL 中。 前置准备 创建流计算 Oceanus 集群 进入 Oceanus
腾讯云大数据
2022/03/04
1.1K0
Flink 实践教程:入门(3):读取 MySQL 数据
作者:腾讯云流计算 Oceanus 团队 流计算 Oceanus 简介 流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。 本文将为您详细介绍如何取 MySQL 数据,经过流计算 Oceanus 实时计算引擎分析,输出数据到日志(Logger Sink)当中。 前置准备 创建 流计算
腾讯云大数据
2021/11/01
1.2K0
Flink 实践教程-进阶(2):复杂格式数据抽取
作者:腾讯云流计算 Oceanus 团队 流计算 Oceanus 简介 流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。 本文将为您详细介绍如何实时获取 CKafka 中的 JSON 格式数据,经过数据抽取、平铺转换后存入 MySQL 中。 前置准备 创建流计算 Oceanus
腾讯云大数据
2021/12/06
8100
Flink 实践教程:入门(2):写入 Elasticsearch
作者:腾讯云流计算 Oceanus 团队 流计算 Oceanus 简介 流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。 本文将为您详细介绍如何使用 datagen 连接器生成随机数据,经过流计算 Oceanus,最终将计算数据存入 Elasticsearch 。 前置准备 创建
腾讯云大数据
2021/11/01
6030
Flink 实践教程:进阶2-复杂格式数据抽取
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
吴云涛
2021/12/04
1.2K0
Flink 实践教程:进阶2-复杂格式数据抽取
Flink 实践教程:进阶1-维表关联
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
吴云涛
2021/12/04
1K0
Flink 实践教程:进阶1-维表关联
Flink 最佳实践:TDSQL Connector 的使用(上)
作者:姚琦,腾讯 CSIG 工程师 本文介绍了如何在 Oceanus 平台使用 tdsql-subscribe-connector [1] ,从 TDSQL-MySQL 订阅任务 [2] 创建,到 Oceanus 作业创建、最终数据验证,实现全流程的操作指导。需要注意的是,本文默认已经创建 TDSQL-MySQL 实例和 Oceanus 集群,并且二者在同一 VPC 下或者不同 VPC 下但网络已经打通。 上述流程图简要说明了使用 tdsql-subscribe-connector 时,整个数据流向情况。
腾讯云大数据
2022/04/22
9360
Flink 最佳实践:TDSQL Connector 的使用(上)
Flink 实践教程:入门(1):零基础用户实现简单 Flink 任务
作者:腾讯云流计算 Oceanus 团队 流计算 Oceanus 简介 流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。 流计算 Oceanus 提供了便捷的控制台环境,方便用户编写 SQL 分析语句、ETL 作业或者上传运行自定义 JAR 包,支持作业运维管理。 本文将为您详细
腾讯云大数据
2021/11/01
4630
Flink 实践教程:入门3-读取 MySQL 数据
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
吴云涛
2021/11/03
2K0
Flink 实践教程:入门3-读取 MySQL 数据
Flink 实践教程-入门(5):写入 ClickHouse
作者:腾讯云流计算 Oceanus 团队 流计算 Oceanus 简介 流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。 本文将为您详细介绍如何使用 Datagen Connector 模拟生成客户视频点击量数据,并利用滚动窗口函数对每分钟内客户的视频点击量进行聚合分析,最后将
腾讯云大数据
2021/11/09
8870
Flink 实践教程-入门(10):Python作业的使用
作者:腾讯云流计算 Oceanus 团队 流计算 Oceanus 简介   流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。 本文将通过一个处理数据后存入 MySQL 的作业示例,为您详细介绍如何使用 PyFlink。 前置准备 创建流计算 Oceanus 集群 进入 Oceanu
腾讯云大数据
2022/03/28
1.3K0
Flink 实践教程:入门10-Python作业的使用
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
吴云涛
2022/03/25
1.6K2
Flink 实践教程:入门10-Python作业的使用
Flink 实践教程:入门5-写入 ClickHouse
流计算 Oceanus 是大数据产品生态体系的实时化分析利器,是基于 Apache Flink 构建的具备一站开发、无缝连接、亚秒延时、低廉成本、安全稳定等特点的企业级实时大数据分析平台。流计算 Oceanus 以实现企业数据价值最大化为目标,加速企业实时化数字化的建设进程。
吴云涛
2021/11/06
2K0
Flink 实践教程:入门5-写入 ClickHouse
Flink 常见问题定位指南
流计算作业通常运行时间长,数据吞吐量大,且对时延较为敏感。但实际运行中,Flink 作业可能因为各种原因出现吞吐量抖动、延迟高、快照失败等突发情况,甚至发生崩溃和重启,影响输出数据的质量,甚至会导致线上业务中断,造成报表断崖、监控断点、数据错乱等严重后果。
KyleMeow
2020/11/30
5.3K0
Flink 常见问题定位指南
推荐阅读
相关推荐
Flink 实践教程:进阶5-乱序调整
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文