腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(184)
视频
沙龙
1
回答
手动
重置
kafka
偏移量
时
,
Flink
偏移量
进入
不一致
状态
apache-kafka
、
flink-streaming
我们有一个
flink
流应用程序,从卡夫卡读取消息。由于某些原因,我们不得不从
kafka
重置
命令将
kafka
偏移
重置
为最新,因为有大量堆积。我们希望
flink
应用程序跳过所有这些消息,并从
重置
后出现的新消息开始。问题是因为
flink
在内部管理它的
偏移量
,它不知道这个
重置
,它现在只从后向读取msg (
重置
前的偏移点),现在也不能提交
偏移量
。因此,每次重启
flink
应用
浏览 62
提问于2021-06-19
得票数 4
回答已采纳
2
回答
Flink
和SparkStreaming中检查点机制的不同
spark-streaming
、
apache-flink
、
kafka-consumer-api
使用来自
Kafka
主题的数据,
Flink
和SparkStreaming都提供了检查点机制,前提是auto.commit.enabled设置为false。火花博士说: 在启用了
Flink
的检查点之后,
Flink
Kafka
消费者将使用来自某个主题的记录,并定期检查其所有
Kafka
偏移量
,以及其他操作的
状态
,以一致的方式。如果作业失败,
Flink
将恢复流程序到最新检查点
浏览 6
提问于2017-12-12
得票数 1
1
回答
我们如何
手动
重置
通过spring boot java应用程序使用的
kafka
主题的
偏移量
?
java
、
spring-boot
、
apache-kafka
、
kafka-consumer-api
我的要求是,当应用程序无法处理从通过spring boot java应用程序使用的
kafka
主题的当前
偏移量
读取的消息
时
,
重置
kafka
主题的
偏移量
。在
手动
重置
偏移量
或发送否定确认之后,需要通过spring boot java应用程序的
kafka
消费者再次从不合适的
偏移量
值轮询消息。它能实现吗?
浏览 3
提问于2019-01-09
得票数 1
1
回答
Flink
+
Kafka
重置
检查点和
偏移量
apache-kafka
、
kafka-consumer-api
、
apache-flink
、
flink-streaming
简而言之,我想从一开始就对
Kafka
中的数据重新运行
Flink
管道。然后,我假设问题可能与
Flink
的检查点有关,但我不知道/无法找到关于如何
浏览 0
提问于2016-02-20
得票数 3
1
回答
flink
检查点如何帮助故障恢复
apache-flink
、
flink-streaming
以下是我的假设:以下是基于上述假设的我的疑虑: 1)上述假设是正确的。2)翻滚窗口是否有意义,因为在失
浏览 0
提问于2020-03-12
得票数 0
1
回答
Flink
Kafka
消费者补偿在重新分配工作
时
被
重置
为0
apache-kafka
、
apache-flink
我遇到的问题是,在重新启动
Kafka
和
Flink
作业
时
,FlinkKafkaConsumer偏移被
重置
为0,因此数据被重新处理,即使我启用了检查点,并且在
Flink
作业中启用了一次语义。这是我的环境细节 在KubernetesKafka源主题下运行的有10个分区,没有replication.
Kafka
,有3个代理。启用
Flink
检查点
时
,semantics.
Flink
版本为1.12
Flink
通过负载平衡器连接到sem
浏览 6
提问于2022-01-25
得票数 0
2
回答
正确地将
Flink
状态
发送给
Kafka
apache-kafka
、
apache-flink
、
flink-streaming
、
checkpointing
我正在构建一个卡夫卡->
Flink
->卡夫卡管道,它可以处理划定的“会话”数据。像这样的每个会话大约有100个事件,很快就会出现(每1-2秒),所有事件共享相同的session_key,我正在将会话转换成一系列大约20个事件,这些事件
进入
输出主题。
Kafka
主题。如果卡夫卡
偏移量
已经被提交,并且没有任何end_event将它从卡夫卡中为该session_key,我如何触发处理运算符为我保存的
状态
以后?或者卡夫卡偏移不会在这种情况下提交,end_event将再次通过
Flink</em
浏览 7
提问于2022-01-30
得票数 0
回答已采纳
1
回答
如果我已经将自动提交设置为true,那么行为是什么?
apache-flink
我在读书启用检查点:如果启用了检查点,则
Flink
消费者将在检查点完成
时
提交存储在检查点
状态
中的
偏移量
。这确保了
Kafka
代理中提交的
偏移量
与检查点
状态
中的
偏移量
一致。如果我在10秒间隔内启用检查点,也可以将have setCommitOffsetsOnCheckpoints设置为true,并在
Kafka
使用者属性中设置enable.auto.commit=true和
偏移量
是否每10秒提交3次?一次从<
浏览 0
提问于2021-06-25
得票数 0
回答已采纳
1
回答
如何为消费者设置卡夫卡补偿?
apache-kafka
、
apache-flink
假设我的主题中已经有10个数据,现在我开始编写
Flink
,消费者将使用第11个数据。 }和pom.xml: <groupId>org.apache.<em
浏览 1
提问于2018-10-31
得票数 2
回答已采纳
1
回答
Apache流应用程序不会从检查点开始停止并启动
apache-flink
、
flink-streaming
、
flink-sql
、
flink-checkpoint
下面的
Flink
流应用程序在本地运行,使用SQL编写: val targetPath = f"file://${new java.io.File(".").getCanonicalPath}/
kafka
-to-fs-csvBIGINT METADATA FROM
浏览 5
提问于2022-03-14
得票数 0
回答已采纳
1
回答
无法在
Flink
新
Kafka
消费者api的检查点上向
Kafka
提交消费抵消(1.14)
apache-flink
、
flink-streaming
我是指
Flink
1.14版本的
Kafka
源代码连接器下面的代码。 我期待以下要求。在应用程序非常新的开始
时
,必须从检查点上卡夫卡主题的最新
偏移量
中读取,它必须在重启后(当应用程序
手动
/系统错误终止
时
)将所消耗的
偏移量
提交给
Kafka
,它必须从上次提交的
偏移量
中选择,并且必须使用消费者延迟当您在2s/3s内
手动
关闭应用程序并重新启动
时
。由于上次使用的消息未提交,因此将读取两次(
浏览 10
提问于2021-12-16
得票数 2
3
回答
不清楚卡夫卡中auto.offset.reset和enable.auto.commit的含义
apache-kafka
、
kafka-consumer-api
我刚接触
Kafka
,我并不真正理解
Kafka
配置的含义,有没有人能给我解释一下更容易理解!
浏览 0
提问于2017-07-05
得票数 21
1
回答
打印kstream内容而不增加
偏移量
java
、
apache-kafka
、
apache-kafka-streams
我目前正在
kafka
streams上执行我的第一步,我很难理解
kafka
应用程序是如何存储其
状态
的。raw_planning_stream } 当我第一次开始处理
时
,主题的内容被打印出来,如果我再次启动它,它不再打印任何东西,因为
偏移量
已经更新。(注意:我设法在我的组上使用了-- reset -offsets -- to
浏览 25
提问于2021-08-03
得票数 0
回答已采纳
1
回答
Kafka
Avro序列化程序,忽略序列化异常
apache-kafka
、
kafka-consumer-api
、
avro
我使用的是
kafka
-avro-serializer-6.0.0.jar。当我遇到反序列化事件的异常
时
,我的使用者会停止并且不会移动到下一个事件。示例:有没有办法让我忽略这些异常并移动消费者的<e
浏览 0
提问于2020-11-29
得票数 0
5
回答
来自
Kafka
的Spark流有错误numRecords不能为负
apache-spark
、
apache-kafka
、
spark-streaming
、
mesos
这是一种奇怪的错误,因为我仍然将数据推送到
kafka
,并使用来自
kafka
的消息,而Exception in thread "main" java.lang.IllegalArgumentExceptionunder-replicated-partitions: 0 is-active-controller: 0 然后,我运行spark-streaming作业,从
kafka
kafkacat -b test-master:31001,test-mast
浏览 0
提问于2016-01-25
得票数 11
1
回答
Coucbase到
Kafka
源连接器
apache-kafka
、
couchbase
、
apache-kafka-connect
我已经使用
kafka
源连接器将文档从Couchbase获取到
kafka
。然后将这些文档复制到Mongo DB。Couchbase --> Source Connector -->
Kafka
--> Sink Connector -> Mongo 如果源连接器关闭,那么如何再次将所有文档同步到
Kafka
?有没有get和touch功能可以将
kafka
主题在停机期间所做的所有更改通知给用户?
浏览 20
提问于2019-10-17
得票数 0
1
回答
再处理/再读卡夫卡记录/信息-消费者集团抵消
重置
的目的是什么?
apache-kafka
、
kafka-consumer-api
我的
kafka
主题共有10条记录/消息和2个分区,每个分区有5条消息。我的使用者组有2个消费者,每个使用者已经分别从他们分配的分区中读取了5条消息。现在,我希望从开始/开始重新处理/读取来自我的主题的消息(
偏移量
0)。./
kafka
-consumer-groups.sh --group cg1 --reset-offsets --to-offset 0 --topic t1 --ex
浏览 3
提问于2019-06-27
得票数 4
1
回答
Kafka
连接-完全拆卸连接器
apache-kafka
、
apache-kafka-connect
第二部分是--是否有办法让
kafka
-connect容器在关闭
时
自动删除他创建的所有连接器?谢谢
浏览 7
提问于2022-11-17
得票数 1
1
回答
如果
Flink
作业在两个检查点之间重新启动,会发生什么情况?
apache-flink
、
flink-streaming
Job1使用来自
Kafka
的记录,对它们进行处理,并再次将它们生成第二个
Kafka
主题。请解释它将如何防止重新处理(即复制记录到
Kafka
)。 根据
Flink
文档,
flink
从上一个成功的检查点重新启动作业。还是
Flink
(& aerospike)中的其他东西阻止了job2中的这种重新处理?
浏览 0
提问于2021-03-08
得票数 0
1
回答
InvalidStateStoreException:州立商店在卡夫卡流中不开放
apache-kafka
、
apache-kafka-streams
at org.apache.
kafka
.clients.consumer.internals.Fetcher.fetchedRecords(Fetcher.java:491) ~[
kafka
-clientsat org.apache.
kafka
.clients.consumer.KafkaConsumer.poll(KafkaConsumer.java:1200) ~[
kafka
-clients-2.2.1at org.apache.
kafka
.clients.consumer.KafkaConsumer
浏览 0
提问于2019-07-25
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券