专栏首页加米谷大数据Kafka OffsetMonitor:监控消费者和延迟的队列
原创

Kafka OffsetMonitor:监控消费者和延迟的队列

一个小应用程序来监视kafka消费者的进度和它们的延迟的队列。 KafkaOffsetMonitor是用来实时监控Kafka集群中的consumer以及在队列中的位置(偏移量)。 你可以查看当前的消费者组,每个topic队列的所有partition的消费情况。可以很快地知道每个partition中的消息是否 很快被消费以及相应的队列消息增长速度等信息。这些可以debug kafka的producer和consumer,你完全知道你的系统将 会发生什么。 这个web管理平台保留的partition offset和consumer滞后的历史数据(具体数据保存多少天我们可以在启动的时候配 置),所以你可以很轻易了解这几天consumer消费情况。 KafkaOffsetMonitor这款软件是用Scala代码编写的,消息等历史数据是保存在名为offsetapp.db数据库文件中,该数据 库是SQLLite文件,非常的轻量级。虽然我们可以在启动KafkaOffsetMonitor程序的时候指定数据更新的频率和数据保存 的时间,但是不建议更新很频繁,或者保存大量的数据,因为在KafkaOffsetMonitor图形展示的时候会出现图像展示过 慢,或者是直接导致内存溢出了。 所有的关于消息的偏移量、kafka集群的数量等信息都是从Zookeeper中获取到的,日志大小是通过计算得到的。 消费者组列表

screenshot 消费组的topic列表

screenshot 图中参数含义解释如下: topic:创建时topic名称 partition:分区编号 offset:表示该parition已经消费了多少条message logSize:表示该partition已经写了多少条message Lag:表示有多少条message没有被消费。 Owner:表示消费者 Created:该partition创建时间 Last Seen:消费状态刷新最新时间。 topic的历史位置

screenshot Offset存储位置 kafka能灵活地管理offset,可以选择任意存储和格式来保存offset。KafkaOffsetMonitor目前支持以下流行的存储格 式。 kafka0.8版本以前,offset默认存储在zookeeper中(基于Zookeeper) kafka0.9版本以后,offset默认存储在内部的topic中(基于Kafka内部的topic) Storm Kafka Spout(默认情况下基于Zookeeper) KafkaOffsetMonitor每个运行的实例只能支持单一类型的存储格式。 下载 可以到github下载KafkaOffsetMonitor源码。 https://github.com/quantifind/KafkaOffsetMonitor 编译KafkaOffsetMonitor命令: sbt/sbt assembly 不过不建议你自己去下载,因为编译的jar包里引入的都是外部的css和js,所以打开必须联网,都是国外的地址,你编 译的时候还要修改js路径,我已经搞定了,你直接下载就好了。

启动 编译完之后,将会在KafkaOffsetMonitor根目录下生成一个类似KafkaOffsetMonitor-assembly-0.3.0- SNAPSHOT.jar的jar文件。这个文件包含了所有的依赖,我们可以直接启动它: java -cp KafkaOffsetMonitor-assembly-0.3.0-SNAPSHOT.jar \ com.quantifind.kafka.offsetapp.OffsetGetterWeb \ --offsetStorage kafka \ --zk zk-server1,zk-server2 \ --port 8080 \ --refresh 10.seconds \ --retain 2.days 启动方式2,创建脚本,因为您可能不是一个kafka集群。用脚本可以启动多个。 vim mobile_start_en.sh nohup java -Xms512M -Xmx512M -Xss1024K -XX:PermSize=256m - XX:MaxPermSize=512m -cp KafkaOffsetMonitor-assembly-0.3.0-SNAPSHOT.jar com.quantifind.kafka.offsetapp.OffsetGetterWeb --offsetStorage kafka --zk 127.0.0.1:2181 --port 8080 --refresh 10.seconds --retain 2.days 1>mobile-logs/stdout.log 2>mobile-logs/stderr.log & 各个参数的含义: offsetStorage:有效的选项是"zookeeper","kafka","storm"。0.9版本以后,offset存储的位置在kafka。 zk: zookeeper的地址 prot 端口号 refresh 刷新频率,更新到DB。 retain 保留DB的时间 dbName 在哪里存储记录(默认'offsetapp')

加米谷大数据专注于大数据培训的机构。由来自阿里、华为、京东、星环等国内知名企业的多位技术大牛联合创办,技术底蕴丰厚,勤奋创新,精通主流前沿大数据及人工智能相关技术。 以国家规划大数据及人工智能产业发展战略为指引,以全国大数据技术、数据分析及AI人才的培养为使命,以提升就业能力、强化职业技术为目标。面向个人提供大数据开发、人工智能等前沿技术的培训业务。面向行业企业提供大数据及人工智能技术内训服务、大数据及人工智能技术咨询服务、大数据及人工智能行业咨询规划服务等多项配套服务。

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 关于大数据信息分析的方法与工具

    信息分析主要以事物、现象、数据、信息的属性、特征、本质、规律、关联等为依据展开定性和定量分析,以期发现新知识。因此,信息分析以事物、现象、数据、信息之间存在的因...

    加米谷大数据
  • 关于大数据信息分析的方法与工具

    信息分析主要以事物、现象、数据、信息的属性、特征、本质、规律、关联等为依据展开定性和定量分析,以期发现新知识。因此,信息分析以事物、现象、数据、信息之间存在的因...

    加米谷大数据
  • Kafka性能测试

    耗时:18秒 总体文件大小:2193.45MB 最大处理量:163.6659MB/S TPS:171616.1767条

    加米谷大数据
  • Kubernetes 部署kafka ACL(单机版)

    在Kafka0.9版本之前,Kafka集群时没有安全机制的。Kafka Client应用可以通过连接Zookeeper地址,例如zk1:2181:zk2:218...

    py3study
  • Kafka漫游记

    我是一条消息,从我被生产者发布到topic的时候,我就清楚自己的使命:被消费者获取消费。但我一直很纳闷,把我直接推送给消费者不就行了,为什么一定要先推送到类似队...

    java达人
  • Kafka漫游记

    我是一条消息,从我被生产者发布到topic的时候,我就清楚自己的使命:被消费者获取消费。但我一直很纳闷,把我直接推送给消费者不就行了,为什么一定要先推送到类似队...

    java达人
  • Kafka系列文章第2篇之安装测试

    上篇文章讲解了 Kafka 的基础概念和架构,了解了基本概念之后,必须得实践一波了,所谓“实践才是检验真理的唯一办法”,后续系列关于 Kafka 的文章都以 k...

    z小赵
  • linux安装kafka

    猿码优创
  • Kafka 常用命令汇总

    kafka 自带调整工具kafka-preferred-replica-election.sh

    owenyuan
  • P4和POF的对比

    一、简介 软件定义网络(SDN)技术的发展已经历了多年,新技术层出不穷。OpenFlow作为其中的一个代表性协议,已经进化了多个版本,并被工业界和学术界广泛接受...

    SDNLAB

扫码关注云+社区

领取腾讯云代金券