腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
没有
阅读
消息
的
情况下
提交
时
,
kafka
的
行为
是什么
?
、
、
我
的
代码看起来像这样。message_reader(process_consumer) process_consumer.close() 所以,我
的
问题是,假设主题中
没有
消息
,也
没有
消息
被消费- commit()会增加偏移量吗?另外,生产者是否在生成
消息
之前检查最新
的
偏移量?
浏览 15
提问于2020-03-05
得票数 0
1
回答
卡夫卡、春·卡夫卡与重传旧信息
、
、
在
异常
的
应用程序终止并重新启动之后,我
的
应用程序开始接收来自
Kafka
队列
的
旧
的
、已经处理过
的
消息
。spring.
kafka
.bootstrap-servers=${
kafka
.host}:${
kafka
.port} spring.
kafka
.consumer.auto-offset-reset=ea
浏览 0
提问于2018-07-08
得票数 4
回答已采纳
1
回答
阿克卡流:至少一次卡夫卡和卡桑德拉
的
送货
行为
、
、
、
、
但是,我遇到了一个我不知道如何处理
的
用例。这个场景是一个流,它
的
源是ActorPublisher,它消耗
的
是
Kafka
的
消息
,而订阅者是更新Cassandra表
的
接收器。
Kafka
~>一些映射操作~> Cassandra 关键是,每当一条
消息
成功地被处理并插入卡桑德拉
时
,我都想向卡夫卡明确确认,这样我就可以
在
灾难发生和服务失败
的
情况下
重新读取这条<e
浏览 2
提问于2015-05-27
得票数 4
1
回答
合流
kafka
-速率限制
、
速率限制:由于
Kafka
能够以远高于MQ消耗
的
速率生成
消息
,我们是否可以使用一些配置设置@
kafka
consumer来启用速率限制传输,以保护MQ
的
稳定性?同样-只需一次语义-理解
kafka
只支持一次语义,这将阻止已经被消费者消费
的
消息
的
重新传输。有人可以指导我如何设置此配置吗? 我们
在
组织中使用
的
是confluent
kafka
企业版。
浏览 1
提问于2020-10-07
得票数 0
1
回答
当格林梅全球gpss致力于卡夫卡话题
时
、
我试图使用gpss (格林梅利流服务器)将数据从
Kafka
加载到GreenplumDB。使用给定
的
config)Write (
在
kafka
浏览 5
提问于2021-01-13
得票数 0
回答已采纳
2
回答
Kafka
-重新处理主题中
的
消息
、
现在只是为了测试,只有一个主题,对于这个主题,1个使用者正在从主题和处理中获取相同
的
消息
,并将它们存储在数据库中。但是,如果我在数据库中存储和抛出异常(例如PersistenceException )有任何问题,那么
消息
流就会被中断。我该怎么处理呢?有人面对这种情况吗?
浏览 1
提问于2021-09-13
得票数 1
回答已采纳
1
回答
在
Kafka
Streams中,即使无法发布到输出主题,消费者偏移量也会
提交
吗?
、
如果我有一个
Kafka
流应用程序无法发布到主题(因为主题不存在),它是
提交
消费者偏移量并继续,还是
在
相同
的
消息
上循环,直到它可以解析输出主题?尝试发布到主题
时
的
错误示例: Error while fetching metadata with correlation id 80 : {super.cool.test.topic=UNKNOWN_TOPIC_OR_PARTITION} 在我看来,为了不丢失数据,它只会在相同
的
消息
上旋转,直
浏览 13
提问于2019-05-31
得票数 1
回答已采纳
1
回答
KafkaStreams EXACTLY_ONCE保证-跳过卡夫卡抵消
、
、
、
我正在使用Spark2.2.0和
Kafka
0.10火花流库从满是
kafka
应用程序
的
主题中读取。
Kafka
Broker版本为0.11,
Kafka
-streams版本为0.11.0.2。当我
在
Kafka
应用程序中设置EXACTLY_ONCE保证
时
: p.put(StreamsConfig.PROCESSING_GUARANTEE_CONFIG, StreamsConfig.EXACTLY_ONCE编辑1:主题填充卡夫卡-流应用程序(完全一次启用)有错
浏览 0
提问于2018-01-19
得票数 2
回答已采纳
3
回答
Kafka
消费者,处理某些
消息
失败
、
、
我有一个弹簧启动应用程序与单一
的
kafka
消费者,以获取一些主题
的
消息
。但有时
在
处理
消息
时会发生错误。我希望像往常一样继续接收以下
消息
,同时能够不丢失该
消息
并接收它,例如,下次服务
在
修复后与使用者重启
时
。 有可能做到这一点吗?我知道我需要禁用自动
提交
并手动
提交
成功
的
消息
,但是,在这种
情况下
,如果我
没有
对这个异常
浏览 0
提问于2020-08-30
得票数 1
1
回答
在
几次尝试处理失败后将偏移量
提交
到reactor-
kafka
中
的
Kafka
、
、
、
有一个
消息
到达
的
Kafka
主题。我需要
阅读
一条
消息
,对其进行处理,然后继续下一条
消息
。
消息
处理可能会失败,如果发生这种情况,处理必须重试几次(比方说10次),然后才能继续处理下一条
消息
。如果处理失败10次,则需要删除该
消息
,我们应该继续处理下一条
消息
。 我们使用reactor-
kafka
,所有的处理都需要反应式
的
。要
提交
偏移量,我们需要一个ReceiverReco
浏览 23
提问于2020-04-09
得票数 2
1
回答
Kafka
Node -如何检索压缩主题上
的
所有
消息
、
我正在尝试使用
kafka
-node来读取来自
kafka
主题
的
压缩
消息
。
kafka
-topics.sh --zookeeper ${
K
浏览 2
提问于2018-08-25
得票数 0
1
回答
如何使用Lagom
Kafka
Message Broker API安全地跳过
消息
?
、
、
、
它还必须以接收
消息
的
相同顺序发出它们。这意味着flow不能过滤或收集
消息
的
子集,相反,它必须将
消息
拆分成单独
的
流,并将那些本应被丢弃
的
消息
映射到Done。此外,
在
Lagom
的
KafkaSubscriberActor
的
实施中,我们看到私有atLeastOnce
的
实施本质上是解压缩
消息
有效负载和偏移量,然后
在
我们
的
用户流将
消
浏览 25
提问于2019-03-12
得票数 3
2
回答
Apache nifi和
kafka
微服务
、
、
、
我是Apache Nifi
的
新手,但我
在
尝试连接
kafka
微服务(与生产者)和Apache nifi消费者
时
遇到了一些问题。/test depends_on: command: python test.py 测试是我
的
制作人: from
在
Apache nifi仪表板中,我使用以下参数设置了一个输入:
Kafka
broker: localhost:9
浏览 37
提问于2021-07-14
得票数 0
2
回答
重新尝试数据库故障
时
的
kafka
消息
消耗
、
、
我是卡夫卡
的
新手。我
的
问题是:,我们想知道如何重新使用未
提交
的
消息
?捕获应用程序异常并跳过
kafka
提交
。将
消息
存储到RAM中,然后重试。 在这种
情况下
的
最佳实践方法
是什么</
浏览 2
提问于2018-03-21
得票数 2
1
回答
ReactiveKafkaConsumerTemplate receiveAutoAck
的
消息
排序
、
、
、
我
在
问自己,spring-
kafka
项目的ReactiveKafkaConsumerTemplate是否保证了
消息
的
正确排序。我
阅读
了reactor-
kafka
项目的文档,它指出
消息
应该使用concatMap操作符,但ReactiveKafkaConsumerTemplate至少在这里使用receiveAutoAck方法
的
情况下
使用/docs/
kafka
/release/ref
浏览 37
提问于2021-01-26
得票数 0
回答已采纳
1
回答
Apache
kafka
偏移量
在
apache storm拓扑中
提交
、
我正在设计一个apache storm拓扑(使用streamparse),它使用一个spout (apache
kafka
spout)和一个并行大于1
的
螺栓构建,可以批量读取
kafka
spout中
的
消息
并将
消息
持久化到mysql表中当螺栓
在
mysql上插入失败
时
,我不会在
kafka
中
提
浏览 2
提问于2019-01-31
得票数 0
1
回答
kafka
抵销管理自动vs手动
、
我正在开发一个使用
Kafka
流
的
spring boot应用程序,
在
我
的
应用程序中,我希望管理
Kafka
偏移量,并在仅在成功处理
消息
的
情况下
提交
偏移量。这一点很重要,确保即使
Kafka
重启或zookeeper关闭,我也不会丢失
消息
。我目前
的
情况是,当我
的
Kafka
断断续续
时
,我
的
消费者从头开始并使用所有之前<em
浏览 3
提问于2020-01-16
得票数 0
1
回答
我应该在offsetOutOfRange上停止我
的
节点-
kafka
-consumer吗?
、
我写了一个node-
kafka
consumer。
在
极少数
情况下
,我使用一个组id启动
kafka
客户端,当某些偏移量可用时使用,但不再可用-导致"offsetOutOfRange“事件被调用。在这种
情况下
,推荐
的
行为
是什么
?记录错误并退出?有
没有
办法恢复?我总是想从上次
提交
的
偏移量开始运行zookeeper (如果存在且可用)。client = new
kafka
.Cli
浏览 10
提问于2016-08-01
得票数 1
回答已采纳
3
回答
不清楚卡夫卡中auto.offset.reset和enable.auto.commit
的
含义
、
我刚接触
Kafka
,我并不真正理解
Kafka
配置
的
含义,有
没有
人能给我解释一下更容易理解!下面是我
的
代码: "bootstrap.servers" -> "master:9092,slave1:9092",auto.offset.reset" -> "latest", //earliest or latest &quo
浏览 0
提问于2017-07-05
得票数 21
1
回答
Kafka
-动态/任意分区
、
、
将此操作并行化
的
最佳方法
是什么
?例如,假设我创建了1000个分区。我考虑过让http请求是异步
的
,但在确定要
提交
的
偏移量
时
,我似乎遇到了问题。 例如,
在
浏览 3
提问于2015-05-08
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券