专栏首页YG小书屋logstash 重复消费kafka问题

logstash 重复消费kafka问题

前两天业务方突然找到我说当天索引ES查询很慢,原来毫秒级的查询现在竟然要20s,让我处理下。我看了下索引大小,原来是1分片6g左右,今天突然就变成了1分片32g。然后我就一脸硬气的告诉他,你们业务膨胀了5倍,为什么不和平台这边沟通,一分片30多g肯定慢。然后业务一脸懵逼的查了一通,告诉我业务大小没变化。业务方说数据大小没变,我这边logtash也没动过,难道是推送kafka的时候,多推送了几次?(我自己没做改动,不可能有问题的好吗?肯定是别人有问题。。。。。)我让负责kakfa的同学帮忙查了一下,他告诉我kafka接收到的数据和往常一样,没变化。业务数据量没变,kafka接收到的数据量也没变,那只能是logtash的问题。但logstash我也没改,为什么今天就突然变大了呢? 然后我试着查看其他业务当天的索引,发现也特别慢。查看segments发现,一个一分片0副本的索引segments竟然有1400多。这肯定慢,从一个文件中查询与从1400个文件这个性能差的不是一点半点。

直觉告诉我,segments没合并和logtash重复消费两者肯定有关系。

logtash重复消费

关于logstash重复消费问题,这篇文章https://www.jianshu.com/p/6492b762c171介绍了原因。kafka的consumer消费数据时首先会从broker里读取一批消息数据进行处理,处理完成后再提交offset。如果这一批消息处理时间过长,在session.timeout.ms时间内没有处理完成,自动提交offset失败,然后kafka会重新分配partition给消费者,消费者又重新消费之前的一批数据,又出现了消费超时,所以会造成死循环,一直消费相同的数据。同时也给出了解决方案:将max_poll_records 调小,将session_timeout_ms调大即可。 问题解决流程: 1)首次尝试,将session_timeout_ms调整为和auto_commit_interval_ms默认值5s一样。观察了一段时间发现没什么效果。当时在想为啥一批数据需要处理这么久? 2)调整session_timeout_ms没什么效果,那就只能减少每一批数据的大小了。logstash的配置中,我没有配置每批的数据条数max_poll_records ,而配置了每批数据大小max_partition_fetch_bytes。将其减少为原来的一半,logstash不在重复消费kafka,终于恢复正常了。

当天索引的segments没合并

查了一圈资料也没找到segmetns没合并的原因。ES可以通过_forcemerge暴力合并,但对正在读写的索引却不建议这么做。因为merge进程会阻塞所有的写请求,知道merge结束。官网的原文是这么说的:

The force merge API allows to force merging of one or more indices through an API. The merge relates to the number of segments a Lucene index holds within each shard. The force merge operation allows to reduce the number of segments by merging them. This call will block until the merge is complete. If the http connection is lost, the request will continue in the background, and any new requests will block until the previous force merge is complete.

forcemerge肯定是不行的,我们知道ES后台有segments合并的线程,难道是系统的合并线程挂了,没重启起来? 问题解决流程: 1)重启大发好,先重启一把试试。重启恢复正常,过了半个小时后我查看业务当天的segments发现果然少了,由原来的1400多变为了100多个。果然还是重启大发好。我告诉业务已经弄好了,让他多观察下。 2)第二天业务方又找到我说很卡,我查看segments发现,segmetns又有400多了(上午),按照这个进度推下去,晚上又会达到1000多。WTF? 又翻了一遍官网关于merge的信息,突然发现这句话:

A shard in elasticsearch is a Lucene index, and a Lucene index is broken down into segments. Segments are internal storage elements in the index where the index data is stored, and are immutable. Smaller segments are periodically merged into larger segments to keep the index size at bay and to expunge deletes. The merge process uses auto-throttling to balance the use of hardware resources between merging and other activities like search.

意思就是说合并进程会根据系统的负载自动在读写和merge之间做均衡,如果读写压力非常大,那么merge就有可能会很慢。那没毛病了,肯定是读写压力大,引起系统降低了merge的频率。我突然想起来集群中有个业务变了,由原来的每天200G,变为每天2T。 没错就是因为其他业务突然增长了10倍,使集群写压力增大,然后logstash向ES写数据的时候耗费的时间更长,session才会timeout,才会一直重复消费,引起当天索引变大。还是因为集群写压力大,然后系统merge操作减少频率,导致当天索引segments没合并,查询特别慢。 加机器就好了。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 磁盘空间引起ES集群shard unassigned的处理过程

    YG
  • 【转】架构漫谈(六):软件架构到底是要解决什么问题?

    架构漫谈是由资深架构师王概凯 Kevin 执笔的系列专栏,专栏将会以 Kevin 的架构经验为基础,逐步讨论什么是架构、怎样做好架构、软件架构如何落地、如何写好...

    YG
  • ES中文分词器之精确短语匹配(自定义分词器)

    YG
  • 笔记 | 史上最全的正则表达式

    原文:http://www.cnblogs.com/zxin/archive/2013/01/26/2877765.html 点击文末阅读原文即可 很多不太懂正...

    昱良
  • 常用正则表达式

    6. 非零开头的最多带两位小数的数字:^([1-9][0-9]*)+(.[0-9]{1,2})?$

    用户5807183
  • PHP开发中常用的正则表达式

    沈唁
  • 最全的常用正则表达式大全

    运维行业正在变革,推荐阅读:30万年薪Linux运维工程师成长魔法 很多不太懂正则的朋友,在遇到需要用正则校验数据时,往往是在网上去找很久,结果找来的还是不很符...

    小小科
  • 二分法查找

    给一有序的数组a[9]={1,2,3,4,5,6,7,8,9,},想要确定 3 的位置。

    AngelNH
  • 史上最全常用正则表达式

    作者:zxin 原文:www.cnblogs.com/zxin/archive/2013/01/26/2877765.html(点击文末阅读原文即可...

    顶级程序员
  • 正则表达式 语言间通用

    一、校验数字的表达式  1. 数字:^[0-9]*$  2. n位的数字:^\d{n}$  3. 至少n位的数字:^\d{n,}$  4. m-n位的数字:^\...

    房上的猫

扫码关注云+社区

领取腾讯云代金券