专栏首页分布式系统进阶Kafka重置消费的OffsetKafka源码分析-汇总

Kafka重置消费的OffsetKafka源码分析-汇总

  • Kafka消费后都会提交保存当前的消费位置offset, 可以选择保存在zk, 本地文件或其他存储系统;
  • Kafka 0.8以后提供了Coordinator的角色,.Coordinator除了可以来协调消费的group作balance外, 还接受 OffsetCommit Request, 用来存储消费的offset到Kafka本身中.具体可参考Kafka的消息是如何被消费的?;

Kafka 0.8以前的版本
  • 绝大部分的offset应该都是写到zookeeper上, 类似/consumers/[consumer group]/offsets/[topic]/[partition]
  • 如果不想重启消费进程就能reset, 可以在zk上创建一个新节点,专门用来记录需要reset的offset位軒,然后代码里watch这个节点, 获取到需要重置到的offset值,然后在发送Fetch Request时使用这个新的offset值即可;
Kafka 0.10以后的版本
Kafka 0.9.0.1版本
  • 这个版本你当然还是可以将offset保存在zk中, 然后使用上面提到的方法重置;
  • 我们现在重点来讨论下将offset保存到kafka系统本身的,其实就是存到一个内部的叫__consumer_offsets中,具体可参考Kafka的消息是如何被消费的?;
  • Kafka提供自动reset的配置
    1. auto.offset.reset 1.1 smallest : 自动重置到最小的offset, 这个最小的offset不一定是0, 因为msg可能会被过期删除掉; 1.2 largest : 自动重置到最大的offset;
    2. 这个配置只有在当前无法获取到有效的offset时才生效; 2.1 全新的group; 2.2 已存在的group, 但很久没有提交过offset, 其保存在__consumer_offsets里的信息将被compact并最终清除掉;
  • 需要手动reset时, 并没有像Kafka 0.10(11)版本那样提供给我们工具, 那怎么办? 只能自已搞, 下面提供一个思路:
    1. 确定需要重置到的offset: 1.1 如果想重置到最新或最旧的offset, 可能通过kafka的命令行工具获取: kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list [broker list] --topic [topic name] --time [-1:获取最新offset, -2:获取最旧offset] 1.2 也可以通过代码来获取, 可以使用librdkafkard_kafka_query_watermark_offsets函数来获取;
    2. 重置offset, 以使用librdkafka提供的接口为例: 2.0 需要先停掉需重置的group的所有消费进程,可以使用rd_kafka_list_groups来获取当前消费 gropu的详情; 2.1 使用rd_kafka_topic_partition_list_set_offset来设置需要重置的partiton的offset; 2.2 调用rd_kafka_subscriberd_kafka_consumer_poll来等待group完成balance; 2.3 调用rd_kafka_commit来完成重置的offset的提交;
    3. 当然librdkafka和kafka api都提供了seek接口,也可以用来设置offset;
  • 如果不是想重置到最新或最旧的offset, 而是想重置到某一时间点的offset, 该怎么办?
    1. 这个版本不支持timestamp, 如果不想对kafka源码作改动的话, 可以定时获到group的消费offset, 然后写入到外部存储系统, 比如redis;
    2. 需要重置时,从外部存储系统根据时间点来获到到当时的offset, 由于是定时采样,不一定能完全匹配上指定的时间点,但可以取与其最接近的时间点.

Kafka源码分析-汇总

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • ReplicaManager源码解析1-消息同步线程管理

    基本上就是作三件事: 构造FetchRequest, 同步发送FetchRequest并接收FetchResponse, 处理FetchResponse, 这三...

    扫帚的影子
  • Kafka的消费积压监控-Burrow

    扫帚的影子
  • Kafka消息的磁盘存储Kafka源码分析-汇总

    可以看到使用FileMessageSet来操作Log文件, 使用OffsetIndex来操作Index文件

    扫帚的影子
  • Kafka+Spark Streaming管理offset的几种方法

    场景描述:Kafka配合Spark Streaming是大数据领域常见的黄金搭档之一,主要是用于数据实时入库或分析。为了应对可能出现的引起Streaming程序...

    大数据真好玩
  • Kafka+Spark Streaming管理offset的几种方法

    场景描述:Kafka配合Spark Streaming是大数据领域常见的黄金搭档之一,主要是用于数据实时入库或分析。为了应对可能出现的引起Streaming程序...

    大数据技术与架构
  • Android fragment 标签加载过程分析

    在上一篇文章中我们介绍了 AsyncLayoutInflater 使用的注意事项及改进方案。

    用户2898788
  • HashMap源码解析(JDK1.8)

    1 package java.util; 2 3 import sun.misc.SharedSecrets; 4 5 imp...

    武培轩
  • search(6)- elastic4s-CRUD

    如果我们把ES作为某种数据库来使用的话,必须熟练掌握ES的CRUD操作。在这之前先更正一下上篇中关于检查索引是否存在的方法:elastic4s的具体调用...

    用户1150956
  • 通过Hack方式实现SDC中Stage配置联动刷新

    最近项目组准备开发一个IoT平台项目,需要使用到StreamSets DataCollector组件进行数据处理。 其中的一个Stage,产品经理设计了一个如...

    2Simple
  • windows下,读取快捷方式lnk所指向的路径

    IBinary

扫码关注云+社区

领取腾讯云代金券