首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

为什么会出现这种情况?

对不起,您提供的内容似乎不完整,无法给出准确的答案。请您提供完整的问题,我会尽力为您提供帮助。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

一个有意思的问题:Kafka的消费Offset会溢出吗

最近在项目上接入公司APP产品的用户点击日志数据时,发现消费者组的Offset值非常大,才一天的时间,已提交的Offset值就有千亿级别了。 于是不禁想了一个问题:假设一个Topic就只有一个Partition,每天产生数据量为100000000000(千亿)条,那是否会出现该分区下的消费Offset溢出的情况呢? 经过搜索发现,果然也有类似的问题被提过,答案是:完全不用担心Kafka分区的消费Offset会出现溢出的情况! 简单计算如下: 1.假设Kafka只有一个Topic,且该Topic只有一个Partition,每天写入的数据量刚好是1千亿,那么多长时间之后会出现消费Offset溢出的情况呢? 2.Kafka中的消费Offset使用的是java.lang.Long类型,最大值为:9223372036854775807 3.按每天的生产量为1千亿算,Kafka的最大消费Offset可以支持:9223372天=9223372036854775807/1千亿 => 25269年

01
领券