前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >两种实现方式 | 如何查看消费者组的消费情况

两种实现方式 | 如何查看消费者组的消费情况

作者头像
create17
发布2020-09-18 14:42:47
6.3K0
发布2020-09-18 14:42:47
举报

版本:kafka_2.11-1.1.0

本文提供两种方式来查看消费者组的消费情况,分别通过命令行和 java api 的方式来消费 __consumer_offsets 。

一、通过命令行来查看消费情况

查看 kafka 消费者组列表:

代码语言:javascript
复制
./bin/kafka-consumer-groups.sh --bootstrap-server <kafka-ip>:9092 --list

查看 kafka 中某一个消费者组的消费情况:

代码语言:javascript
复制
./bin/kafka-consumer-groups.sh --bootstrap-server <kafka-ip>:9092 --group test-17 --describe

test-17 是消费者组。

在上面这张图中,我们可以看到该消费者组消费的 topic、partition、当前消费到的 offset 、最新 offset 、LAG(消费进度) 等等。如果消费者的 offset 很长时间没有提交导致 LAG 越来越大,则证明消费 Kafka 的服务异常。

消费者组消费 topic 的元数据信息,在旧版本里面是存储在 zookeeper 中,但由于 zookeeper 并不适合大批量的频繁写入操作,新版 kafka 已将消费者组的元数据信息保存在 kafka 内部的 topic 中,即 __consumer_offsets ,并提供了 kafka-console-consumer.sh 脚本供用户查看消费者组的元数据信息。

那么如何使用 kafka 提供的脚本查询某消费者组的元数据信息呢?

__consumer_offsets 默认有 50 个 partition,kafka 会根据 group.id 的 hash 值选择往哪个 partition 里面存放该 group 的元数据信息。计算 group.id 对应的 partition 的公式为:

代码语言:javascript
复制
Math.abs(groupID.hashCode()) % numPartitions

举例:Math.abs("test-17".hashCode()) % 50,其中 test-17 是 group.id 。

找到 group.id 对应的 partition 后,就可以指定分区消费了:

代码语言:javascript
复制
./bin/kafka-console-consumer.sh --bootstrap-server message-1:9092 --topic __consumer_offsets --formatter "kafka.coordinator.group.GroupMetadataManager\$OffsetsMessageFormatter" --partition 45

kafka 0.11.0.0 版本(含)之前需要使用 formatter 为 kafka.coordinator.GroupMetadataManager\$OffsetsMessageFormatter , 0.11.0.0 版本以后(含)使用上面脚本中使用的 Class 。

脚本执行后输出的元数据信息有:

代码语言:javascript
复制
[test-17,topic-test,0]::[OffsetMetadata[36672,NO_METADATA],CommitTime 1599746660064,ExpirationTime 1599833060064]

[消费者组 : 消费的topic : 消费的分区] :: [offset位移], [offset提交时间], [元数据过期时间]

二、通过 java api 来查看消费情况,方便做告警监控

使用 java api 来查看 __consumer_offsets 元数据信息,更加灵活方便。比如我就用了以下方式做了消费者组消费的告警监控。

pom 依赖:

代码语言:javascript
复制
<!-- https://mvnrepository.com/artifact/org.apache.kafka/kafka -->
<dependency>
    <groupId>org.apache.kafka</groupId>
    <artifactId>kafka_2.11</artifactId>
    <version>1.1.0</version>
    <exclusions>
        <exclusion>
            <artifactId>kafka-clients</artifactId>
            <groupId>org.apache.kafka</groupId>
        </exclusion>
        <exclusion>
            <artifactId>slf4j-log4j12</artifactId>
            <groupId>org.slf4j</groupId>
        </exclusion>
    </exclusions>
</dependency>
<dependency>
    <groupId>org.apache.kafka</groupId>
    <artifactId>kafka-clients</artifactId>
    <version>1.1.0</version>
</dependency>

消费者配置:

__consumer_offsets 中的数据需要用字节来转码,所以消费者配置中需要设置 ByteArrayDeserializer 序列化和反序列化:

代码语言:javascript
复制
props.put("key.deserializer",
        "org.apache.kafka.common.serialization.ByteArrayDeserializer");
props.put("value.deserializer",
        "org.apache.kafka.common.serialization.ByteArrayDeserializer");

消费者示例代码:

代码语言:javascript
复制
/**
     * 指定分区消费__consumer_offsets
     */
public void consumerTopic() {
    consumer.assign(Arrays.asList(new TopicPartition("__consumer_offsets", 45)));
    ConsumerRecords<byte[], byte[]> records;

    while (true) {
        records = consumer.poll(500);

        for (ConsumerRecord<byte[], byte[]> record : records) {
            BaseKey key = GroupMetadataManager.readMessageKey(ByteBuffer.wrap(record.key()));
            if (key instanceof OffsetKey) {
                GroupTopicPartition partition = (GroupTopicPartition) key.key();
                String topic = partition.topicPartition().topic();
                String group = partition.group();

                log.info("consumer group: [{}], consumer topic: [{}], key: [{}]", group, topic, key.toString());
            } else if (key instanceof GroupMetadataKey){
                log.info("groupMetadataKey: [{}]", key.key());    
                //第一个参数为group id,先将key转换为GroupMetadataKey类型,再调用它的key()方法就可以获得group id
                GroupMetadata groupMetadata = GroupMetadataManager.readGroupMessageValue(((GroupMetadataKey) key).key(), ByteBuffer.wrap(record.value()));
                log.info("GroupMetadata: [{}]", groupMetadata.toString());
            }
        }
    }
}

只要消费者组提交位移,__consumer_offsets 里面就会增加对应的元数据信息。我们可以通过指定分区消费 __consumer_offsets ,来监控某消费者组的消费情况,避免在生产环境中消费程序假死而不自知。

小结

1、解析 __consumer_offsets 元数据信息需要设置 ByteArrayDeserializer 序列化和反序列化。

2、通过 kafka.coordinator.GroupMetadataManager 来解析元数据信息

3、__consumer_offsets 的元数据信息有两种:

  • [key:OffsetKey,value:OffsetAndMetadata]:保存了消费者组各 partition 的 offset 元数据信息。
  • [key:GroupMetadataKey,value:GroupMetadata]:保存了消费者组中各个消费者的信息。
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-09-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据实战演练 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、通过命令行来查看消费情况
  • 二、通过 java api 来查看消费情况,方便做告警监控
  • 使用 java api 来查看 __consumer_offsets 元数据信息,更加灵活方便。比如我就用了以下方式做了消费者组消费的告警监控。
相关产品与服务
文件存储
文件存储(Cloud File Storage,CFS)为您提供安全可靠、可扩展的共享文件存储服务。文件存储可与腾讯云服务器、容器服务、批量计算等服务搭配使用,为多个计算节点提供容量和性能可弹性扩展的高性能共享存储。腾讯云文件存储的管理界面简单、易使用,可实现对现有应用的无缝集成;按实际用量付费,为您节约成本,简化 IT 运维工作。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档