前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >记一次摩拜单车JVM线程阻塞排查过程

记一次摩拜单车JVM线程阻塞排查过程

作者头像
用户7927337
发布2020-11-04 14:26:45
5660
发布2020-11-04 14:26:45
举报
文章被收录于专栏:二马读书二马读书

问题发生在2017年下半年,当时摩拜单车每日骑行订单量已经超过1000万。有一段时间地理网格服务时不常的会响应变慢,每次持续几秒钟到几十秒钟就自动恢复。

如果响应变慢是持续的还好办,直接用jstack抓线程调用堆栈,基本可以很快定位问题。关键持续时间只有最多几十秒钟,而且是偶发的,一天只发生一两次,有时几天才发生一次,发生时间点也不确定,人盯着然后用jstack手工抓线程调用堆栈显然不现实。

好吧,既然手工的办法不现实,咱们就来自动的,写一个shell脚本自动定时执行jstack,5秒执行一次jstack,每次执行结果放到不同日志文件中,只保存20000个日志文件。

Shell脚本如下:

#!/bin/bash
num=0
log="/tmp/jstack_thread_log/thread_info"

cd /tmp
if [ ! -d "jstack_thread_log" ]; then
   mkdir jstack_thread_log
fi

while ((num <= 10000));

  do

    ID=`ps -ef | grep java | grep gaea | grep -v "grep" | awk '{print $2}'`
  
    if [ -n "$ID" ]; then
  jstack $ID >> ${log}  
    fi

    num=$(( $num + 1 ))

    mod=$(( $num%100 ))

    if [ $mod -eq 0 ]; then
  back=$log$num
  mv $log $back
    fi
    
    sleep 5

done

下一次响应变慢的时候,我们找到对应时间点的jstack日志文件,发现里面有很多线程阻塞在logback输出日志的过程,后来我们精简了log,并且把log输出改成异步,问题解决了,这个脚本果真好用!建议大家保留,以后遇到类似问题时,可以拿来用!

公众号近期文章菜单中还有关于JVM的其他文章《JVM 频繁GC快速排查捷径》,感谢关注和阅读!

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-02-05,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 二马读书 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档