前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >关于分布式计算框架连接kafka不满足同一消费者组不满足只有一个消费者的情况

关于分布式计算框架连接kafka不满足同一消费者组不满足只有一个消费者的情况

作者头像
shengjk1
发布2019-04-09 16:31:52
4170
发布2019-04-09 16:31:52
举报
文章被收录于专栏:码字搬砖

版权声明:本文为博主原创,欢迎转载,转载请标明出处 Blog Address:http://blog.csdn.net/jsjsjs1789 https://cloud.tencent.com/developer/article/1411365

背景:

之前在做spark实时计算的时候,无意间启动了两个spark Application,导致了最终的结果成倍的增加,经过排查之后,确实是因为启动了两个相同的 spark application,当时感觉特别疑惑,也无从下手来解决这个问题。后来再做Flink实时计算的时候,也同样遇到了这样的问题,Flink官网中的一句话猛然点醒了我:

代码语言:javascript
复制
If you have a problem with Kafka when using Flink, 
keep in mind that Flink only wraps KafkaConsumer or KafkaProducer 
and your problem might be independent of Flink and sometimes can 
be solved by upgrading Kafka brokers, reconfiguring Kafka brokers 
or reconfiguring KafkaConsumer or KafkaProducer in Flink. Some 
examples of common problems are listed below.

是的,Flink 仅仅是封装了KafkaConsumer or KafkaProducer,底层仍然是使用了KafkaConsumer or KafkaProducer,所有当同一个消费者组不满足只有y一个消费者的情况,我应该考虑的是kafka是不是有什么地方理解错了。对,肯定是什么地方理解错了

我们都应该知道的是,同一个消费者组下只有一个消费者的情况,仅仅适应与subscribe(topic),这应该是一个送分的题,竟然被忽略掉了,罪过罪过。我们一起来看一下kafka的源码对group.id的描述,就更豁然开朗了

代码语言:javascript
复制
 public static final String GROUP_ID_CONFIG = "group.id";
 private static final String GROUP_ID_DOC = "A unique string tha
 t identifies the consumer group this consumer belongs to. This 
 property is required if the consumer uses either the group 
 management functionality by using <code>subscribe(topic)</code> 
 or the Kafka-based offset management strategy.";
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019年03月31日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
大数据
全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档