首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

震惊了!maps资源不够引发了Kafka故障

我们遇到“不能分配内存的问题”导致Kafka Crash,观察kafka maps数超过了6w,实际RedHat 6.4(包括7.2和7.4)默认是65530,即使重启Kafka,也无法运行。于是我们在sysctl.conf文件中,将vm.max_map_count设置为262144。再重启Kafka,成功启动Kafka。于是问题来了,maps资源不够,是个直接原因,那根本原因是什么呢?

1)记录Broker的maps数。

2)重启Broker,记录maps数,观察重启之后,是否有变化。

3)通过性能测试工具’./bin/kafka-producer-perf-test.sh’,向集群中写入数据,观察maps是否有变化。

5)通过性能测试工具’./bin/kafka-producer-perf-test.sh’,向集群中写入数据,观察maps是否有变化。

测试结果如下:

【关注】

如果觉得文章对你有用,请关注本微信公众号 - 全栈生涯

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190112G0C26T00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券