腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在K8S上为更新策略执行rollingUpdate时,
Flink
的
恢复机制是什么?
、
我想知道在k8s上滚动更新重新启动作业时,
Flink
中
的
检查点
或保存点
的
恢复过程。 下面让我解释一下简单
的
例子。假设我在我
的
flink
k8s作业中有4个荚,并且使用parallelism 1有以下简单
的
数据
流。假设过滤器由pod1管理,map为pod2,接收器为pod3,
源
分别为pod4。当根据滚动更新重新启动pod1 (过滤器)时,是否立即将
源
任务(其他任务)中
的
记录保存到外部
浏览 3
提问于2022-10-13
得票数 0
回答已采纳
1
回答
Flink
精确一次-接收器处
的
检查点
和屏障确认
、
、
我有一个
Flink
作业,它
的
接收器是将
数据
写入MongoDB。接收器是RichSinkFunction
的
实现。 接收器在什么时候确认
检查点
屏障,在调用函数开始时还是在调用完成时?意味着它在确认障碍
浏览 3
提问于2018-05-31
得票数 1
1
回答
Apache
Flink
中
的
端到端精确处理一次
、
、
、
Apache通过从
检查点
恢复作业来保证在故障和恢复时处理一次,
检查点
是分布式
数据
流和操作符状态
的
一致快照(Chandy-Lamport算法用于分布式快照)。此保证在故障转移时恰好是一次。在正常
的
集群操作中,
Flink
如何保证只处理一次,例如给定从外部
源
读取
的
Flink
源
(例如Kafka),
Flink
如何保证事件从
源
读取一次?事件
源
和
Flink
<e
浏览 3
提问于2020-09-30
得票数 3
回答已采纳
1
回答
大型
源
数据
的
flink
检查点
、
、
、
、
我正在使用一个
flink
流应用程序,输入
源
是nfs文件系统,接收器是kafka生产者。我使用
的
是continousmonitoring功能,它会转发不支持parllelism
的
文件拆分和带有parllelism
的
continousFileOperator。我们拥有的初始
数据
是4TB
的
数据
。对于初始传输,continousmonitorfunction功能需要很长时间才能准备好状态,但
检查点
在完成之前会一直过期。我能知道
检查点<
浏览 16
提问于2020-04-13
得票数 0
1
回答
从
检查点
恢复Apache
Flink
作业
、
、
我正在使用Apache
Flink
+ RabbitMQ堆栈。我知道有机会手动触发保存点并从中恢复作业,但问题是
Flink
在成功
检查点
后确认消息,如果您想要设置保存点和恢复状态,您将丢失上次成功
的
保存点和上次成功
的
检查点
之间
的
所有
数据
。有没有办法从
检查点
恢复作业?这将解决在不可重放
数据
源
(如rabbitmq)
的
情况下丢失
数据
的
问题。顺便说一句,如
浏览 20
提问于2016-09-13
得票数 3
回答已采纳
1
回答
确认Apache上
的
Google /Sub消息
、
、
、
LOG.info("hola amigo "+c.element()); }与在NodeJS上接收
的
消息相比,我得到了包含在data字段中
的
消息。我正在打印
的
属性映射是null。是否有其他方法来确认所有消息,而不必计算出ackId?
浏览 3
提问于2017-05-16
得票数 5
回答已采纳
2
回答
Flink
Kinesis使用者未存储上次成功处理
的
序列号
、
、
我们正在使用
Flink
Kinesis Consumer将Kinesis流中
的
数据
消费到我们
的
Flink
应用程序中。 KCL库使用DynamoDB表来存储最后成功处理
的
Kinesis流序列号。因此,下次应用程序启动时,它将从中断
的
位置恢复。 但是,
Flink
Kinesis Consumer似乎没有维护任何这样
的
序列号。在任何持久化存储中。因此,我们需要依靠ShardIteratortype (trim_horizen、latest等
浏览 16
提问于2019-02-22
得票数 3
2
回答
正确地将
Flink
状态发送给Kafka
、
、
、
我正在构建一个卡夫卡->
Flink
->卡夫卡管道,它可以处理划定
的
“会话”
数据
。我输入
的
Kafka主题有以下格式
的
数据
,并构成session_key
的
一个会话entry_event(session_key像这样
的
每个会话大约有100个事件,很快就会出现(每1-2秒),所有事件共享相同
的
session_key,我正在将会话转换成一
浏览 7
提问于2022-01-30
得票数 0
回答已采纳
1
回答
Flink
Kafka消费者补偿在重新分配工作时被重置为0
、
我遇到
的
问题是,在重新启动Kafka和
Flink
作业时,FlinkKafkaConsumer偏移被重置为0,因此
数据
被重新处理,即使我启用了
检查点
,并且在
Flink
作业中启用了一次语义。这是我
的
环境细节 在KubernetesKafka
源
主题下运行
的
有10个分区,没有replication.Kafka,有3个代理。启用
Flink
检查点
时,semantics.
Flink
版本为1.12
Flink
浏览 6
提问于2022-01-25
得票数 0
1
回答
Apache
Flink
-
检查点
数据
大小在一段时间内不断增加
、
、
我在我
的
Flink
应用程序(版本1.11.1)中使用了事件时间语义,该应用程序在AWS - kinesis分析中运行。此应用程序
的
源
为kinesis stream,宿为Postgres。
检查点
间隔为10秒,因为在notifyCheckpointComplete()上触发了DB接收器。我使用多个CoProcessFunction和ValueState来连接不同
的
流,然后再将其发送到Postgres。 观察到,
检查点
数据
大小在一段时间内不断增长,而线程计数
浏览 20
提问于2021-03-02
得票数 0
1
回答
flink
是否为
数据
集批处理提供
检查点
、
如何为
flink
批处理配置
检查点
。我有兴趣知道检查指针是如何在内部工作
的
。由于
检查点
每隔一段时间就会发生,如果作业在下一个点之前失败,那么如果它重新启动也不会有任何重复处理。
flink
是否检查每个操作员、接收器和
源
的
检查点
?
浏览 26
提问于2020-05-10
得票数 0
回答已采纳
1
回答
Flink
作业完成
的
保存点
我有一个usecase,其中我需要使用有界
的
RocksDB
源
为
Flink
应用程序(包括RocksDB状态和广播状态)种子,然后在种子播种完成后读取其他无界/有界
的
S3
源
。我试着用两个步骤来实现这一点: 对于步骤1:
浏览 2
提问于2022-11-11
得票数 1
1
回答
flink
检查点
由于jdbc写背压而失败
、
我有一个
flink
应用程序,它每30分钟查询一次
数据
库,进行一些转换并持久化到
数据
库中。我试图处理100 k记录,因为来自jdbc写任务、
数据
库查询任务和转换任务之一
的
背压没有得到
检查点
和超时。启用未对齐
的
检查点
也不起作用。使用
flink
版本1.14.5,并行性15。128MB taskmanager.memory.task.off-h
浏览 6
提问于2022-11-03
得票数 0
1
回答
如何在nfs文件系统中存储apache
检查点
、
我正在使用Apache 1.10.0从RabbitMQ中提取
数据
流,现在在内存中使用默认
的
检查点
配置。,但是现在我没有HDFS集群,我
的
Apache
Flink
运行在kubernetes集群中,如何在文件系统中存储我
的
检查点
?我阅读了Apache
的
并告诉我它支持: 可以重放记录一定时间
的
持久(或持久)
数据
源
。这些
源
的
例子是持久消息队列(例如Apache、Rab
浏览 5
提问于2020-04-09
得票数 0
回答已采纳
2
回答
使用Google
的
信息并将其发布给Kafka
、
、
、
、
我想使用KafkaIO将使用
的
消息写到Kafka。我想使用FlinkRunner来执行作业,因为我们在GCP之外运行这个应用程序。我面临
的
问题是,在GCP PubSub中,所消耗
的
消息没有得到ACK。我已经确认本地Kafka实例具有从GCP PubSub中使用
的
消息。GCP DataFlow中
的
文档表明,当管道被一个
数据
接收器终止时,
数据
包就会完成,在我
的
例子中,这就是Kafka。但是,由于代码在Apache中运行,而不是在GCP DataFlow中运
浏览 3
提问于2020-11-08
得票数 0
回答已采纳
1
回答
创建
检查点
时出现闪烁
、
、
我有一个
flink
工作,在创建
检查点
时卡住了。它几乎没有状态(除了一些kafka偏移量)。从我
的
指标中可以看到,所有这些都发生了,我得到了一些5xx (返回迭代源代码),一些4xx (忽略)和很多2xx (转发到HDFS)。(Task.java:530)仔细观察源代码,我可以看到第二个线程(持有锁)似乎处于某种无休止
的
循环中:while (availableMemorySegments.
浏览 0
提问于2020-05-19
得票数 1
1
回答
Flink
(Kafka源代码)是如何管理抵消
的
?
、
我正在使用弗林克
的
FlinkKafkaConsumer09,我想知道卡夫卡消费者
的
补偿存储在哪里? 我在动物园管理员和卡夫卡
的
偏移话题中找不到它们。而且卡夫卡-消费者补偿工具找不到。这是
Flink
内部处理
的
吗?
浏览 2
提问于2017-01-28
得票数 2
回答已采纳
2
回答
Apache如何管理MQTT消费者补偿
、
我使用MQTT使用者作为
flink
作业
的
数据
源
。我想知道如何将
数据
偏移保存到
检查点
,以确保在
flink
集群发生故障后重新启动时不会丢失任何
数据
。我看到了很多介绍apache如何管理kafka消费者补偿
的
文章。有谁知道apache是否有自己
的
功能来管理MQTT使用者?谢谢。
浏览 24
提问于2022-01-24
得票数 0
2
回答
Flink
中
的
检查点
事件时间水印
、
、
我们正在接收来自no
的
事件。因此,到达我们
的
Flink
拓扑(通过Kafka)
的
数据
将是无序
的
。我们在
Flink
拓扑中创建1分钟
的
事件时间窗口,并在
源
操作符处生成事件时间水印(当前事件时间-某个阈值(30秒))。如果少数事件在设置
的
阈值之后到达,则这些事件将被忽略(在我们
的
情况下这是可以
的
,因为属于该分钟
的
大多数事件都已经到达并在相应
的
窗口中得到处
浏览 28
提问于2018-03-02
得票数 5
1
回答
使用REST调用
Flink
有状态函数
、
我正在寻找通过REST POST/GET调用调用现有有状态函数
的
帮助/指针。不过,我正在寻找一个可用于
的
解决方案。 谢谢
浏览 9
提问于2022-03-28
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Flink 支持哪些数据源和数据接收器?
官宣:Apache Flink 1.14.0 发布
Flink 的基本概念是什么?
数据库检查点异常故障的检查及处理
Flink+ 数据湖 Iceberg 的体验
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券