腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Kafka
Consumer
是否
默认
批量
大小
?
java
、
apache-kafka
Kafka
是否
提供了从topic读取消息的
默认
批量
大小
?我有以下从主题中读取消息的代码。while (true) {
consumer
.poll= record.value(); }); insertInBatch(user
浏览 91
提问于2019-12-13
得票数 3
1
回答
如何将蔚蓝服务总线配置为
批量
发送消息?
java
、
apache-camel
、
apache-camel-k
可以配置
kafka
消费者,并在调试时确认其在每次轮询
kafka
主题时消耗数千条消息。 from("
kafka
:{{
consumer
.topic}}?brokers={{
kafka
.host}}:{{
kafka
.port}}" + &
浏览 11
提问于2022-06-26
得票数 0
0
回答
Confluent
Kafka
Python库为
批量
消息配置生产者
python
、
apache-kafka
、
kafka-producer-api
、
confluent-platform
我需要设置
Kafka
生产者发送一批500个味精,而不是味精,而是
批量
导入。TypeError: function takes at most 8 arguments (501 given)from confluent_
kafka
import
Consumer
, Producer producer = Producer(**{'bootstrap.s
浏览 12
提问于2017-06-15
得票数 0
回答已采纳
1
回答
spring cloud stream
kafka
batch不会每15分钟消费一次消息,即使增加了这个配置,'fetch.max.wait.ms‘
spring-boot
、
apache-kafka
、
spring-cloud-stream
、
consumer
、
spring-cloud-stream-binder-kafka
我想每15分钟
批量
消费一次消息。为此,我设置了这些属性, spring.cloud.stream.
kafka
.binder.
consumer
-properties.max.poll.records=5000000spring.cloud.stream.
kafka
.binder.
consumer
-properties
浏览 131
提问于2021-09-22
得票数 0
回答已采纳
1
回答
我们可以在一个应用程序属性文件中拥有两个不同的spring
kafka
消费者属性吗?
spring-kafka
Consumer
1配置详情(
批量
)spring.
kafka
.
consumer
.[0].enable-auto-commit = falsespring.
kafka
.
consumer</
浏览 9
提问于2021-05-19
得票数 0
回答已采纳
1
回答
我应该在什么情况下使用批处理使用者与单记录使用者
spring-kafka
据我所知,Apache
Kafka
文档中没有诸如批处理消费者之类的特殊概念,但spring-
kafka
可以选择使用以下代码片段创建批处理消费者。factory.setBatchListener(true); // <<<<<<<<<<<<<<<<<<<<<<<<<} 现在我的问题是, 我应该在什么时候使用
批量
消费者与单记录消费者有
浏览 17
提问于2020-10-21
得票数 0
回答已采纳
3
回答
如何使用Spring Boot等待完整的
Kafka
消息批?
spring
、
spring-boot
、
kotlin
、
apache-kafka
、
spring-kafka
批量
消费
Kafka
消息时,可以使用max.poll.records限制
批量
大小
。 如果消费者非常快,并且其提交偏移量没有明显滞后,这意味着大多数批处理将小得多。我希望只接收“完整”批处理,也就是说,只有在达到批处理
大小
时才调用我的消费者函数。所以我正在寻找像min.poll.records这样的东西,它并不以这种形式存在。下面是我正在做的一个最小的例子: import org.apache.
kafka
.clients.
consumer
.ConsumerConfig im
浏览 64
提问于2020-01-02
得票数 2
回答已采纳
1
回答
aiokafka:考虑
kafka
消费群组再均衡时,消息处理
是否
需要加锁
python
、
apache-kafka
、
aio
当使用ConsumerRebalanceListener启动aiokafka消费者时,我们对从
kafka
接收到的
批量
消息(getmany())有一个处理过程。实际上,我不太确定在这种情况下我们
是否
真的需要锁,所以如果这里的人们能给出一些建议,我将不胜感激。虽然我们在这种情况下使用aiokafka,但我猜这对
Kafka
来说可能是一个一般性的问题。= asyncio.Lock() self.
kafka
_
consumer
= AIOKafkaConsume
浏览 53
提问于2020-11-08
得票数 0
1
回答
春云流卡夫卡绑定,如何为两个消费者设置不同的max.polls.records设置?
spring-kafka
、
spring-cloud-stream
application.yml first-
consumer
-in-0: use-native-encoding: true content-type: application/*+avro destination:
consumer
.second use-native-enco
浏览 9
提问于2022-08-05
得票数 0
1
回答
Python
Kafka
使用者在消息到达时不读取消息
python
、
apache-kafka
、
kafka-consumer-api
我刚刚开始使用
Kafka
,
kafka
-python。在下面的代码中,我尝试在消息到达时读取它们。但由于某些原因,消费者似乎在等待一定数量的消息积累后才获取它们。我最初认为这是因为制作人正在
批量
出版。当我运行"
kafka
-console-
consumer
--bootstrap-servers --topic“时,我可以在消息发布后立即看到收到的每条消息(就像在消费者控制台上看到的那样)。() pr
浏览 58
提问于2019-12-21
得票数 2
1
回答
获取异常:[使用批处理后无法将B强制转换为org.springframework.messaging.Message异常
java
、
spring
、
apache-kafka
、
spring-cloud-stream
、
spring-cloud-stream-binder-kafka
我使用spring-cloud-stream-
kafka
-binder-3.0.4
批量
消费消息,消费后将消息转换为object,但得到上述异常。=truespring.cloud.stream.
kafka
.bindings.activity-input-channel.
consumer
.auto-commit-offset=false spring.cl
浏览 64
提问于2021-09-17
得票数 0
回答已采纳
1
回答
错误:字段Message.Field .protobuf.MessageTypeAck.sourceModuleID的非法导线类型:1(预期为0)
javascript
、
node.js
、
protocol-buffers
我有一个应用程序,用
kafka
和协议缓冲区来处理和消费消息,一切都很好。我正在用SerializeAsString()序列化协议缓冲区(这个应用程序是用c++编写的)。) {}
consumer
.on
浏览 1
提问于2016-05-01
得票数 3
回答已采纳
2
回答
最后,python代码没有运行
python
def
kafka
_messages(topic, partition):
consumer
= SimpleConsumer(
kafka
, b"
consumer
-group"
consumer
.provide_pa
浏览 2
提问于2014-11-03
得票数 0
回答已采纳
1
回答
如何在命令行中使用带有人类可读的时间戳的
Kafka
消息?
apache-kafka
我知道
kafka
-console-
consumer
有一个属性print.timestamp=true,但是它打印的是划时代的时间,而不是人类可读的时间。如何在命令行中使用人类可读的时间戳来使用
Kafka
消息?
浏览 1
提问于2019-10-09
得票数 1
1
回答
如何使用${akka.
kafka
.
consumer
}?
java
、
akka
我正在尝试使用
默认
的
Kafka
配置设置,但我不确定${akka.
kafka
.
consumer
}是如何设置的。阅读我定义了以下内容:our-
kafka
-
consumer
: ${akka.
kafka
.
consumer
} { }但是,当
浏览 18
提问于2022-02-28
得票数 0
回答已采纳
4
回答
使用TPL数据流对持续时间或阈值进行批处理
c#
、
task-parallel-library
、
tpl-dataflow
、
batching
我已经使用TPL数据流实现了一个producer..
consumer
模式。用例是代码从
Kafka
总线读取消息。为了提高效率,我们需要在访问数据库时
批量
处理消息。在TPL数据流中,有没有一种方法可以在达到
大小
或持续时间阈值时保持消息并触发? 例如,一旦消息从队列中拉出,当前实现就会发送该消息。
浏览 4
提问于2018-10-04
得票数 11
2
回答
Python
Kafka
模仿返回类型的
Kafka
Consumer
python
、
unit-testing
、
apache-kafka
、
mocking
当我使用
kafka
-python包时,我想测试一个脚本。我想测试函数的返回对象类型
consumer
= KafkaConsumer(bootstrap_servers=_
KAFKA
_BOOTSTRAP_SERVICE,
consumer
.su
浏览 20
提问于2020-07-30
得票数 1
1
回答
Kafka
-node突然从偏移量0开始消耗
node.js
、
apache-kafka
、
kafka-consumer-api
、
node-kafka
有时,
kafka
-node消费者从偏移量0开始消费,而它的
默认
行为是只消费较新的消息。则它将不会切换回其
默认
行为。你知道如何解决这个问题吗?知道发生了什么,它的行为突然改变了吗?var
kafka
= require("
kafka
-node") ; client = new
kafka
.KafkaClient();
consumer
=
浏览 5
提问于2020-01-31
得票数 3
1
回答
Kafka
删除未使用的消费群体
apache-kafka
、
spring-kafka
(例如my_
consumer
_group_123324234234,my_
consumer
_group_123324234235 .)。我想知道
是否
可以通过脚本删除未使用的使用者组(使用“my_
consumer
_group_*”之类的名称进行过滤)
浏览 2
提问于2022-05-19
得票数 0
2
回答
分区非常大的__
consumer
_offsets主题
apache-kafka
我使用的是
Kafka
2.0.0,有一些__
consumer
_offsets主题的分区是500-700 GB,超过5000-7000个段。这些部分超过2-3个月。日志中没有错误,该主题
默认
是紧凑的。或者可能是
kafka
2.0.0的一个bug?我能做些什么检查?
浏览 58
提问于2021-06-03
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券