腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Kafka
:谁负责维护消费者群体
读取
偏移
量消息
的
上限?
apache-kafka
、
kafka-consumer-api
我知道
Kafka
Queue Partition
中
的
所有消息(或
偏移
量)都有它
的
偏移
量,它负责
偏移
量
的
顺序。但是,如果我有一个
Kafka
Consumer Group (或单个
Kafka
Consumer),它正在
读取
特别是
Kafka
主题分区,那么它如何维护
读取
的
偏移
量消息,以及谁维护这个
偏移
量计数器?如果消费
浏览 18
提问于2020-07-04
得票数 1
回答已采纳
2
回答
有没有办法获取
kafka
主题
的
最早可用
偏移
量
java
、
apache-kafka
、
kafka-consumer-api
、
offset
、
spring-kafka
我有一个要求,在系统
读取
数据之前,我要存储
偏移
信息。因此,下次系统开始从
kafka
读取
数据时,我需要将系统
中
的
旧
偏移
量之间
的
数据
读取
到最新
偏移
量。但旧
的
偏移
量可能由于
kafka
保留策略而无效。那么,如果我们在
kafka
消费者中指定较旧
的
偏移
量,会有什么行为呢?另外,有没有办法获得特定主题/
偏移
浏览 60
提问于2020-09-09
得票数 0
1
回答
如何在Java
中
为消费群体拉取ConsumerOffset (存储在
kafka
中
)?
java
、
apache-kafka
、
kafka-consumer-api
我有多个
Kafka
消费者和生产者,有不同
的
主题。使用一个独立
的
应用程序,我想要监控
kafka
消费者
的
滞后。我正在使用
kafka
0.10.0.1,因为
Kafka
现在将消费者
偏移
量存储在
kafka
本身
中
,所以我如何才能
读取
相同
的
偏移
量。 我能够
读取
每个分区
的
主题
偏移
量。
浏览 0
提问于2017-03-06
得票数 0
1
回答
阅读卡夫卡在火花批次作业(fromOffset untilOffset)
scala
、
apache-spark
、
apache-kafka
、
kafka-consumer-api
我在这个上看到,我们可以使用org.apache.spark.streaming.
kafka
.KafkaUtils#createRDD在火花批处理作业
中
读取
来自卡夫卡
的
消息,但是这种方法需要一个
偏移
范围,它需要一个“从
偏移
”和“直到
偏移
”。我从org.apache.spark.streaming.
kafka
.KafkaCluster#getLatestLeaderOffsets方法
中
获得了“from
偏移
量”,但是如何
浏览 0
提问于2018-02-06
得票数 0
1
回答
Spark Streaming
中
驱动使用直接
Kafka
API查询分区
偏移
量
的
频率是多少?
apache-kafka
、
spark-streaming
是针对每个批处理间隔查询
偏移
量还是以不同
的
频率查询
偏移
量?
浏览 1
提问于2015-11-17
得票数 1
1
回答
Kafka
:同一群内多个消费者
apache-kafka
、
kafka-consumer-api
该集群
中
的
每个应用程序都有一个客户端,该客户端订阅了一组相同
的
主题,这些主题在整个集群中都是相同
的
。此外,这些客户端
中
的
每一个都共享相同
的
Kafka
组ID。 现在,说到提交模式。我真的不想手动指定
偏移
量,但我也不想使用自动提交,因为在从
Kafka
收到数据后,我需要做一些处理。使用这种解决方案,我预计会出现“不同消费者接收
的
相同数据”问题,因为我在
读取
(消费)之前没有指定
偏移
浏览 10
提问于2018-02-01
得票数 0
1
回答
多连接器一主题分布式
Kafka
连接
elasticsearch
、
apache-kafka
、
apache-kafka-connect
分布式模式下
Kafka
Connect集群
的
Offset Management
的
行为是什么,即运行多个Connector并监听同一组主题(或一个主题)?因此,在分布式模式下,
Kafka
Connect将
偏移
量信息存储在
Kafka
中
,该
偏移
量将被集群
中
的
workers
读取
并提交。如果在该
Kafka
Connect集群中有多个Connector在监听同一主题,会发生什么情况?分区<em
浏览 15
提问于2019-07-01
得票数 2
1
回答
使用KafkaUtils.createDirectStream在
Kafka
中
存储消息
偏移
量
apache-spark
、
apache-kafka
、
spark-streaming-kafka
如果我使用KafkaUtils.createDirectStream
读取
消息,如何在
Kafka
中
存储消息
偏移
量。每次应用程序运行down.It时,
Kafka
都会丢失
偏移
值,然后
读取
auto.offset.reset中提供
的
值(这是最新
的
),并且在应用程序
的
停止-启动间隔内无法
读取
消息。
浏览 21
提问于2019-01-14
得票数 1
1
回答
弹簧集成卡夫卡与管理补偿
java
、
spring
、
spring-integration
、
apache-kafka
我正在使用扩展来
读取
和处理Java应用程序
中
的
Kafka
消息。据我所知,它使用了高级
的
使用者API,它不允许完全管理动物园管理员
中
的
偏移
量。在我
的
例子
中
,我们有auto.commit.enable=false,以便在消息处理后将
偏移
量提交给。如果处理失败,那么将不会提交
偏移
量,我们应该尝试在配置好
的
时间内再次处理相同
的
消息,从
的
浏览 1
提问于2014-06-18
得票数 3
1
回答
仅从
kafka
偏移
量获取一条记录
apache-kafka
、
kafka-consumer-api
我知道可以通过在
kafka
-console-consumer中使用--offset从
kafka
中
读取
特定
偏移
量
的
数据,但这会给出从该特定
偏移
量到当前
偏移
量
的
记录。如何才能将其限制为只有一条记录。
浏览 34
提问于2021-06-16
得票数 1
回答已采纳
1
回答
使用Akka Stream和
Kafka
offset提交将事件从
Kafka
流式传输到Couchbase
scala
、
apache-kafka
、
akka
、
akka-stream
、
alpakka
我正在尝试设计一个Akka Stream,使用Alpakka来
读取
kafka
主题中
的
事件,并将它们放到Couchbase
中
。,这个流实际上是从主题中
读取
事件,并将它们作为json文档放到Couchbase
中
,尽管我不知道如何将消费者
偏移
量提交给
Kafka
,但它看起来甚至很好。如果我已经清楚地理解了隐藏在
Kafka
消费者
偏移
量后面的主要思想,在任何故障或重启发生
的
情况下,流从最后提交
的</em
浏览 21
提问于2019-10-18
得票数 0
2
回答
卡夫卡
的
火花DStream总是从一开始就开始
apache-spark
、
apache-kafka
、
spark-streaming
查看我对解决方案
的
公认答案
的
最后评论 val kafkaParams = Map[String, Object](在Bhima Gogineni
的
回答
中
,我更改了我
的
配置如下: val consumerParams
浏览 3
提问于2018-07-04
得票数 0
回答已采纳
1
回答
手动重置
kafka
偏移
量时,Flink
偏移
量进入不一致状态
apache-kafka
、
flink-streaming
我们有一个flink流应用程序,从卡夫卡
读取
消息。由于某些原因,我们不得不从
kafka
重置命令将
kafka
偏移
重置为最新,因为有大量堆积。我们希望flink应用程序跳过所有这些消息,并从重置后出现
的
新消息开始。问题是因为flink在内部管理它
的
偏移
量,它不知道这个重置,它现在只从后向
读取
msg (重置前
的
偏移
点),现在也不能提交
偏移
量。因此,每次重启flink应用程序时,它都会再次从同一点
读
浏览 62
提问于2021-06-19
得票数 4
回答已采纳
2
回答
如何在spark结构化流
读取
流
中
倒带
Kafka
偏移
量
apache-spark
、
spark-structured-streaming
我有一个火花结构流作业,它被配置为从
Kafka
读取
数据。请查看代码,带参数查看readStream(),
读取
Kafka
的
最新数据。我知道当一个新
的
查询开始而不是恢复时,readStream()会从第一个
偏移
量开始
读取
。 但我不知道如何在每次重新启动IntelliJ
中
的
作业时启动新
的
查询。selectExpr("CAST(value as STRING)", "CAST(
浏览 0
提问于2018-05-12
得票数 3
1
回答
Apache
kafka
偏移
量在apache storm拓扑中提交
apache-kafka
、
apache-storm
我正在设计一个apache storm拓扑(使用streamparse),它使用一个spout (apache
kafka
spout)和一个并行大于1
的
螺栓构建,可以批量
读取
kafka
spout
中
的
消息并将消息持久化到mysql表
中
当螺栓在mysql上插入失败时,我不会在
kafka
中提交
偏移
量
浏览 2
提问于2019-01-31
得票数 0
1
回答
如何用火花结构流管理卡夫卡
的
偏移
量
scala
、
spark-structured-streaming
我有一个火花结构化
的
流媒体工作,它需要
读取
kafka
主题中
的
数据并进行一些聚合。如果我设置了startingOffsets="earliest",那么作业将从主题
读取
所有数据,而不是从上一个流作业离开
的
位置
读取
数据。有人能帮助我如何配置,以设置
偏移
的
权利,在最后一次流作业离开?我使用
的
是Spark2.4.0和
kafka
2.1.1,我尝试为编写作业设置检查点位置,但似乎Spark
浏览 1
提问于2019-05-15
得票数 1
回答已采纳
1
回答
我们如何手动重置通过spring boot java应用程序使用
的
kafka
主题
的
偏移
量?
java
、
spring-boot
、
apache-kafka
、
kafka-consumer-api
我
的
要求是,当应用程序无法处理从通过spring boot java应用程序使用
的
kafka
主题的当前
偏移
量
读取
的
消息时,重置
kafka
主题
的
偏移
量。在手动重置
偏移
量或发送否定确认之后,需要通过spring boot java应用程序
的
kafka
消费者再次从不合适
的
偏移
量值轮询消息。它能实现吗?
浏览 3
提问于2019-01-09
得票数 1
2
回答
使用python库检索
kafka
中
的
消费者组
偏移
量
python
、
apache-kafka
、
kafka-python
我有python脚本,并且需要使用
kafka
1 broker集群检索一组从
kafka
主题
读取
的
消费者的当前消费者组
偏移
量。这些是原生
kafka
消费者,将
偏移
量存储在
kafka
集群
中
,而不是zookeeper
中
。 脚本本身不需要使用任何消息,只需
读取
其他使用者的当前
偏移
量。我意识到使用
kafka
-consumer-groups.sh可以做到这一点,但理想情况下,我希
浏览 1
提问于2018-03-12
得票数 3
1
回答
informatica与
Kafka
的
集成
apache-kafka
、
kafka-consumer-api
、
informatica
我计划在Informatica中使用
Kafka
数据对象。我想每5分钟通过Informatica从
Kafka
读取
数据。我很少有疑问,卡夫卡如何认识到当前
的
偏移
,从它必须加载。我们可以设置一个主题
的
偏移
量,Informatica需要从它加载
Kafka
数据对象
中
的
增量或更改
的
数据吗?我找到了以下答案,请您纠正我的确切过程: 1)动物园管理员是否将当前
偏移
量存储到加载数据
的</em
浏览 2
提问于2017-06-30
得票数 0
5
回答
Kafka
主题和
偏移
量
apache-kafka
我有一个问题,假设有一个主题T1,有两个消费者C1,C2属于两个不同
的
组,当前
偏移
量是0。我们知道
Kafka
维护consumer.So
的
偏移
量,如果C1消费消息,
偏移
量变成1,那么如果C2消费消息,它是从1
偏移
量开始还是从0
偏移
量开始消费消息?意味着如何维护两个不同消费者组
的
偏移
量?
浏览 1
提问于2020-02-20
得票数 0
点击加载更多
相关
资讯
“Kafka技术”Apache Kafka中的事务
CAD中如何使用偏移功能?
CAD中的圆角、倒角、延伸、修剪、偏移功能介绍
CDP中的Kafka概览
unity中的数据储存读取
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券