前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >悄悄掌握 Kafka 常用命令,再也不用全网搜索了(建议收藏)

悄悄掌握 Kafka 常用命令,再也不用全网搜索了(建议收藏)

作者头像
create17
发布2020-12-16 14:25:19
8.6K0
发布2020-12-16 14:25:19
举报
文章被收录于专栏:大数据实战演练

前言 对于从事大数据相关职位的朋友们来说,使用 kafka 的频率应该不会少。为了解决各位在操作 kafka 时记不住命令参数的痛点,所以我整理了一下在我工作中经常用到的 kafka 实操命令,希望各位看官能够喜欢。 kafka版本:2.11-1.1.0

一、kafka shell 命令行汇总

1、查看当前的集群Topic列表
代码语言:javascript
复制
./bin/kafka-topics.sh --list --zookeeper cdh-worker-1:2181/kafka
2、查看所有的Topic的详细信息
代码语言:javascript
复制
./bin/kafka-topics.sh --describe --zookeeper cdh-worker-1:2181/kafka

如果要查看单个 topic 信息:可在上述命令后面添加 --topic <topicName>

3、创建Topic
代码语言:javascript
复制
./bin/kafka-topics.sh --create --zookeeper cdh-worker-1:2181/kafka --replication-factor 3 --partitions 1 --topic test-topic
4、删除Topic

删除 topic 之前,需要确保配置 delete.topic.enable=true 。

代码语言:javascript
复制
./bin/kafka-topics.sh --delete --zookeeper cdh-worker-1:2181/kafka --topic topic-demo
Topic topic-demo is marked for deletion.
Note: This will have no impact if delete.topic.enable is not set to true.

执行完命令后,查看 log.dirs 指定的文件目录,会发现 topic-demo 的文件夹都被标记为 delete ,如下图所示。

等一定的时间(根据 log.retention.check.interval.ms 配置而定,hdp 版本默认为 60s)后,被标记为 delete 的文件则会被移除。

5、生产数据
代码语言:javascript
复制
./bin/kafka-console-producer.sh --broker-list kafka-1:9092 --topic test-topic
> This is a messageThis is another message
6、消费数据
代码语言:javascript
复制
./bin/kafka-console-consumer.sh --bootstrap-server kafka-1:9092 --topic test-topic --from-beginning

--from-beginning 表示从最初的未过期的 offset 处开始消费数据。不加该参数,表示从最新 offset 处开始消费数据。

7、查询topic的offect范围

查询offect的最小值:

代码语言:javascript
复制
./bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list kafka-1:9092 -topic test-topic --time -2
# 输出
test-topic:0:0

查询offect的最大值:

代码语言:javascript
复制
./bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list 192.168.78.184:9092 -topic test-topic [--time -1]
# 输出
test-topic:0:655

从上面的输出可以看出 test-topic 只有一个 Partition:0;offset 的范围是【0,655】。

8、增加分区

将分区数增加到 3 个:

代码语言:javascript
复制
./bin/kafka-topics.sh --alter --zookeeper cdh-worker-1:2181/kafka --topic test-topic --partitions 3

如果需要重新分布 kafka 分区以及增加分区副本数,可以参考:《必会 | 教你如何重新分布kafka分区、增加分区副本数》

9、均衡 kafka 的 leader 副本

可以参考我之前写的干货文章:《kafka 如何对 topic 分区 replica leader 进行负载均衡》

10、查看消费组
代码语言:javascript
复制
./bin/kafka-consumer-groups.sh --bootstrap-server kafka-1:9092 --list

查看指定消费组的详情(比如消费进度 LAG ),这里的消费者组名为 console-consumer-3665 :

代码语言:javascript
复制
./bin/kafka-consumer-groups.sh --bootstrap-server kafka-1:9092 --group console-consumer-3665  --describe
11、指定 partition 和 offset 消费
代码语言:javascript
复制
./bin/kafka-console-consumer.sh --bootstrap-server kafka-1:9092 --topic test-topic --partition 0 --offset 1663520
12、从__consumer_offsets主题查找某个group的偏移量

1)计算 group.id 对应的 partition

__consumer_offsets 默认有 50 个 partition ,需要先计算 group.id 对应的 partition ,计算公式如下所示:

代码语言:javascript
复制
# 计算公式
Math.abs(groupid.hashCode()) % numPartitions
# 实例,groupid 为 console-consumer-3665,numPartitions 是 50。
Math.abs("console-consumer-3665".hashCode()) % 50
# 得到的数字,就是你消费者组对应的 partition 。

2)消费分区

找到 partition 后,就可以消费指定分区了:

代码语言:javascript
复制
./bin/kafka-console-consumer.sh \
--bootstrap-server kafka-1:9092 \
--topic __consumer_offsets \
--formatter "kafka.coordinator.group.GroupMetadataManager\$OffsetsMessageFormatter" \
--partition 17 | grep xxx

注意事项

在 kafka 0.11.0.0 版本之前 --formatter 需要使用 kafka.coordinator.GroupMetadataManager\$OffsetsMessageFormatter,0.11.0.0 版本以后(含)使用上面脚本中使用的 Class 。

13、为 topic 设置单独配置

为 test-topic 设置某配置参数。

代码语言:javascript
复制
./bin/kafka-configs.sh --zookeeper cdh-worker-1:2181/kafka  --entity-type topics --entity-name test-topic --alter --add-config max.message.bytes=10485760 

查看这个 topic 设置的参数:

代码语言:javascript
复制
./bin/kafka-configs.sh --zookeeper cdh-worker-1:2181/kafka  --entity-type topics --entity-name test-topic --describe 
14、查看 kafla 数据 xxx.log 日志
代码语言:javascript
复制
./bin/kafka-run-class.sh kafka.tools.DumpLogSegments --files /data/kafka_data/logs/test-0/00000000000001049942.log --print-data-log --deep-iteration > secLog.log

二、小结

上面是我一直以来积累的 kafka 常用命令,挺齐全的了。指定 partition 和 offset 消费数据、查看消费者组消费情况,查看消费者组的提交 offset 信息,增加分区、均衡分区、增加分区副本数、均衡 leader 副本等等。

为了解决各位在操作 kafka 时记不住命令参数的痛点,所以贴心的我整理了一下在我工作中经常用到的 kafka 实操命令,希望各位看官能够喜欢。觉得有用的如果给个点赞好看就再好不过了。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-12-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据实战演练 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、kafka shell 命令行汇总
    • 1、查看当前的集群Topic列表
      • 2、查看所有的Topic的详细信息
        • 3、创建Topic
          • 4、删除Topic
            • 5、生产数据
              • 6、消费数据
                • 7、查询topic的offect范围
                  • 8、增加分区
                    • 9、均衡 kafka 的 leader 副本
                      • 10、查看消费组
                        • 11、指定 partition 和 offset 消费
                          • 12、从__consumer_offsets主题查找某个group的偏移量
                            • 13、为 topic 设置单独配置
                              • 14、查看 kafla 数据 xxx.log 日志
                              • 二、小结
                              相关产品与服务
                              负载均衡
                              负载均衡(Cloud Load Balancer,CLB)提供安全快捷的流量分发服务,访问流量经由 CLB 可以自动分配到云中的多台后端服务器上,扩展系统的服务能力并消除单点故障。负载均衡支持亿级连接和千万级并发,可轻松应对大流量访问,满足业务需求。
                              领券
                              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档