logstash 重复消费kafka问题

前两天业务方突然找到我说当天索引ES查询很慢,原来毫秒级的查询现在竟然要20s,让我处理下。我看了下索引大小,原来是1分片6g左右,今天突然就变成了1分片32g。然后我就一脸硬气的告诉他,你们业务膨胀了5倍,为什么不和平台这边沟通,一分片30多g肯定慢。然后业务一脸懵逼的查了一通,告诉我业务大小没变化。业务方说数据大小没变,我这边logtash也没动过,难道是推送kafka的时候,多推送了几次?(我自己没做改动,不可能有问题的好吗?肯定是别人有问题。。。。。)我让负责kakfa的同学帮忙查了一下,他告诉我kafka接收到的数据和往常一样,没变化。业务数据量没变,kafka接收到的数据量也没变,那只能是logtash的问题。但logstash我也没改,为什么今天就突然变大了呢? 然后我试着查看其他业务当天的索引,发现也特别慢。查看segments发现,一个一分片0副本的索引segments竟然有1400多。这肯定慢,从一个文件中查询与从1400个文件这个性能差的不是一点半点。

直觉告诉我,segments没合并和logtash重复消费两者肯定有关系。

logtash重复消费

关于logstash重复消费问题,这篇文章https://www.jianshu.com/p/6492b762c171介绍了原因。kafka的consumer消费数据时首先会从broker里读取一批消息数据进行处理,处理完成后再提交offset。如果这一批消息处理时间过长,在session.timeout.ms时间内没有处理完成,自动提交offset失败,然后kafka会重新分配partition给消费者,消费者又重新消费之前的一批数据,又出现了消费超时,所以会造成死循环,一直消费相同的数据。同时也给出了解决方案:将max_poll_records 调小,将session_timeout_ms调大即可。 问题解决流程: 1)首次尝试,将session_timeout_ms调整为和auto_commit_interval_ms默认值5s一样。观察了一段时间发现没什么效果。当时在想为啥一批数据需要处理这么久? 2)调整session_timeout_ms没什么效果,那就只能减少每一批数据的大小了。logstash的配置中,我没有配置每批的数据条数max_poll_records ,而配置了每批数据大小max_partition_fetch_bytes。将其减少为原来的一半,logstash不在重复消费kafka,终于恢复正常了。

当天索引的segments没合并

查了一圈资料也没找到segmetns没合并的原因。ES可以通过_forcemerge暴力合并,但对正在读写的索引却不建议这么做。因为merge进程会阻塞所有的写请求,知道merge结束。官网的原文是这么说的:

The force merge API allows to force merging of one or more indices through an API. The merge relates to the number of segments a Lucene index holds within each shard. The force merge operation allows to reduce the number of segments by merging them. This call will block until the merge is complete. If the http connection is lost, the request will continue in the background, and any new requests will block until the previous force merge is complete.

forcemerge肯定是不行的,我们知道ES后台有segments合并的线程,难道是系统的合并线程挂了,没重启起来? 问题解决流程: 1)重启大发好,先重启一把试试。重启恢复正常,过了半个小时后我查看业务当天的segments发现果然少了,由原来的1400多变为了100多个。果然还是重启大发好。我告诉业务已经弄好了,让他多观察下。 2)第二天业务方又找到我说很卡,我查看segments发现,segmetns又有400多了(上午),按照这个进度推下去,晚上又会达到1000多。WTF? 又翻了一遍官网关于merge的信息,突然发现这句话:

A shard in elasticsearch is a Lucene index, and a Lucene index is broken down into segments. Segments are internal storage elements in the index where the index data is stored, and are immutable. Smaller segments are periodically merged into larger segments to keep the index size at bay and to expunge deletes. The merge process uses auto-throttling to balance the use of hardware resources between merging and other activities like search.

意思就是说合并进程会根据系统的负载自动在读写和merge之间做均衡,如果读写压力非常大,那么merge就有可能会很慢。那没毛病了,肯定是读写压力大,引起系统降低了merge的频率。我突然想起来集群中有个业务变了,由原来的每天200G,变为每天2T。 没错就是因为其他业务突然增长了10倍,使集群写压力增大,然后logstash向ES写数据的时候耗费的时间更长,session才会timeout,才会一直重复消费,引起当天索引变大。还是因为集群写压力大,然后系统merge操作减少频率,导致当天索引segments没合并,查询特别慢。 加机器就好了。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏微信音视频小程序

教你从0到1搭建小程序音视频

升级微信到最新版本,发现页卡 => 小程序 => 搜索“腾讯视频云”,即可打开小程序Demo:

1.1K3
来自专栏携程技术中心

[技术分享]携程App的网络性能优化实践

在4月23日~25日举行的QCon全球软件开发大会(北京站)上,携程技术中心无线开发总监陈浩然分享了《移动开发网络性能优化实践》,总结了携程在App网络性能优化...

28510
来自专栏西枫里博客

启用CDN后,QQ互联登录出现异常的问题。

博客群里的网友都说网站真实IP没隐藏有巨大的被D风险。隐藏网站真实IP最简单的办法就是做内容分发网络,用户在访问网站的时候是访问就近的CDN节点,ping出来的...

1652
来自专栏EAWorld

微服务来了,配置怎么办?

配置管理是个简单的小话题,程序员都已经非常熟悉,咋就跟微服务挂上钩了呢? 前些年没提微服务架构的时候,大家也都会做配置管理相关的事情,比如我接触过的很多项目都做...

3606
来自专栏大数据架构师专家

从运维角度看中大型网站架构的演变之路

网上有很多文章类似于我今天要分享的课程,有架构师写的,有运维写的,还有开发些的,偏重点都不同,今天我以咱们运维角度全面讲解。

1453
来自专栏微信公众号:Java团长

我的编码习惯 —— 日志规范

开发中日志这个问题,每个公司都强调,也制定了一大堆规范,但根据实际情况看,效果不是很明显,主要是这个东西不好测试和考核,没有日志功能一样跑啊。

992
来自专栏后端技术探索

Linux各种发行版,你会选吗

Linux最早由Linus Benedict Torvalds在1991年开始编写。在这之前,Richard Stallman创建了Free Software ...

1722
来自专栏FreeBuf

安全科普:流量劫持能有多大危害?

作者 gethostbyname 上一篇文章,介绍了常见的流量劫持途径。然而无论用何种方式获得流量,只有加以利用才能发挥作用。 不同的劫持方式,获得的流量也有所...

2416
来自专栏FreeBuf

关于“入侵检测”的一些想法

离开长沙的时候写了一篇文章“左右互博:站在攻击者的角度来做防护”(freebuf上可以找到),一晃已经是三年了。这三年接触了很多东西,自己也有过很多想法,但实际...

2330
来自专栏架构师之路

即使删了全库,保证半小时恢复

近期一篇《就这样把根目录删了!!!》引发了广泛的讨论,《如何防止根目录被删》汇总了7种防删方案。还有同学评论中反馈“不小心把库删了”,如何快速恢复删掉的数据库,...

4105

扫码关注云+社区

领取腾讯云代金券