前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >logstash 重复消费kafka问题

logstash 重复消费kafka问题

作者头像
YG
发布2018-08-13 17:32:26
2.9K0
发布2018-08-13 17:32:26
举报
文章被收录于专栏:YG小书屋

前两天业务方突然找到我说当天索引ES查询很慢,原来毫秒级的查询现在竟然要20s,让我处理下。我看了下索引大小,原来是1分片6g左右,今天突然就变成了1分片32g。然后我就一脸硬气的告诉他,你们业务膨胀了5倍,为什么不和平台这边沟通,一分片30多g肯定慢。然后业务一脸懵逼的查了一通,告诉我业务大小没变化。业务方说数据大小没变,我这边logtash也没动过,难道是推送kafka的时候,多推送了几次?(我自己没做改动,不可能有问题的好吗?肯定是别人有问题。。。。。)我让负责kakfa的同学帮忙查了一下,他告诉我kafka接收到的数据和往常一样,没变化。业务数据量没变,kafka接收到的数据量也没变,那只能是logtash的问题。但logstash我也没改,为什么今天就突然变大了呢? 然后我试着查看其他业务当天的索引,发现也特别慢。查看segments发现,一个一分片0副本的索引segments竟然有1400多。这肯定慢,从一个文件中查询与从1400个文件这个性能差的不是一点半点。

直觉告诉我,segments没合并和logtash重复消费两者肯定有关系。

logtash重复消费

关于logstash重复消费问题,这篇文章https://www.jianshu.com/p/6492b762c171介绍了原因。kafka的consumer消费数据时首先会从broker里读取一批消息数据进行处理,处理完成后再提交offset。如果这一批消息处理时间过长,在session.timeout.ms时间内没有处理完成,自动提交offset失败,然后kafka会重新分配partition给消费者,消费者又重新消费之前的一批数据,又出现了消费超时,所以会造成死循环,一直消费相同的数据。同时也给出了解决方案:将max_poll_records 调小,将session_timeout_ms调大即可。 问题解决流程: 1)首次尝试,将session_timeout_ms调整为和auto_commit_interval_ms默认值5s一样。观察了一段时间发现没什么效果。当时在想为啥一批数据需要处理这么久? 2)调整session_timeout_ms没什么效果,那就只能减少每一批数据的大小了。logstash的配置中,我没有配置每批的数据条数max_poll_records ,而配置了每批数据大小max_partition_fetch_bytes。将其减少为原来的一半,logstash不在重复消费kafka,终于恢复正常了。

当天索引的segments没合并

查了一圈资料也没找到segmetns没合并的原因。ES可以通过_forcemerge暴力合并,但对正在读写的索引却不建议这么做。因为merge进程会阻塞所有的写请求,知道merge结束。官网的原文是这么说的:

The force merge API allows to force merging of one or more indices through an API. The merge relates to the number of segments a Lucene index holds within each shard. The force merge operation allows to reduce the number of segments by merging them. This call will block until the merge is complete. If the http connection is lost, the request will continue in the background, and any new requests will block until the previous force merge is complete.

forcemerge肯定是不行的,我们知道ES后台有segments合并的线程,难道是系统的合并线程挂了,没重启起来? 问题解决流程: 1)重启大发好,先重启一把试试。重启恢复正常,过了半个小时后我查看业务当天的segments发现果然少了,由原来的1400多变为了100多个。果然还是重启大发好。我告诉业务已经弄好了,让他多观察下。 2)第二天业务方又找到我说很卡,我查看segments发现,segmetns又有400多了(上午),按照这个进度推下去,晚上又会达到1000多。WTF? 又翻了一遍官网关于merge的信息,突然发现这句话:

A shard in elasticsearch is a Lucene index, and a Lucene index is broken down into segments. Segments are internal storage elements in the index where the index data is stored, and are immutable. Smaller segments are periodically merged into larger segments to keep the index size at bay and to expunge deletes. The merge process uses auto-throttling to balance the use of hardware resources between merging and other activities like search.

意思就是说合并进程会根据系统的负载自动在读写和merge之间做均衡,如果读写压力非常大,那么merge就有可能会很慢。那没毛病了,肯定是读写压力大,引起系统降低了merge的频率。我突然想起来集群中有个业务变了,由原来的每天200G,变为每天2T。 没错就是因为其他业务突然增长了10倍,使集群写压力增大,然后logstash向ES写数据的时候耗费的时间更长,session才会timeout,才会一直重复消费,引起当天索引变大。还是因为集群写压力大,然后系统merge操作减少频率,导致当天索引segments没合并,查询特别慢。 加机器就好了。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018.07.29 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • logtash重复消费
  • 当天索引的segments没合并
相关产品与服务
Elasticsearch Service
腾讯云 Elasticsearch Service(ES)是云端全托管海量数据检索分析服务,拥有高性能自研内核,集成X-Pack。ES 支持通过自治索引、存算分离、集群巡检等特性轻松管理集群,也支持免运维、自动弹性、按需使用的 Serverless 模式。使用 ES 您可以高效构建信息检索、日志分析、运维监控等服务,它独特的向量检索还可助您构建基于语义、图像的AI深度应用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档