首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

cpu占用过高排查

简介 最近一段时间 某台服务器上的一个应用总是隔一段时间就自己挂掉 用top看了看 从重新部署应用开始没有多长时间CPU占用上升得很快 排查步骤 # 1.使用top 定位到占用CPU高的进程PID...top # 2.通过ps aux | grep PID命令 获取线程信息,并找到占用CPU高的线程 ps -mp pid -o THREAD,tid,time | sort -rn # 3.将需要的线程...printf "%x\n" tid # 4.打印线程的堆栈信息 到了这一步具体看堆栈的日志来定位问题了 jstack pid |grep tid -A 30 案例 1.top可以看到PID733进程的占用...2.查找进程733下的线程 可以看到TID 线程775占用了96%且持有了很长时间 其实到这一步基本上能猜测到应该是 肯定是那段代码发生了死循环 ps -mp 733 -o THREAD,tid,time...占用过高

2.4K51

CPU占用过高排查

一.简介 最近一段时间 某台服务器上的一个应用总是隔一段时间就自己挂掉 用top看了看 从重新部署应用开始没有多长时间CPU占用上升得很快 排查步骤 1.使用top 定位到占用CPU高的进程PID top...2.通过ps aux | grep PID命令 获取线程信息,并找到占用CPU高的线程 ps -mp pid -o THREAD,tid,time | sort -rn 3.将需要的线程ID转换为16...printf "%x\n" tid 4.打印线程的堆栈信息 到了这一步具体看堆栈的日志来定位问题了 jstack pid |grep tid -A 30 二.例子 1.top 可以看出PID 733进程 的占用...CPU 172% 2.查找进程733下的线程 可以看到TID 线程775占用了96%且持有了很长时间 其实到这一步基本上能猜测到应该是 肯定是那段代码发生了死循环 ps -mp 733 -o THREAD

3.6K30

Tomcat占用CPU过高解决方法

问题描述 在工作中经常遇到Tomcat占用CPU居高不下,top显示结果超过200%,请求无法响应,针对这种情况有以下处理办法进行排查。请求无法响应。...命令可以快速查出jvm进程 jps pid 2、查看jstack信息 jstack pid 3、将十进制pid转换为16进制 将十进制转换成16进制 # printf "%x\n" 19713-->将第2步查到占用较高...4、打印线程的堆栈信息 jstack pid | grep tid -A 30 此处不一一列表各tid的堆栈信息了,在其中一个的tid堆栈信息中找到了问题的原因 5、进一步排查,分析每个线程的cpu占用量...简单点儿的方法则是,查出进程id后,通过如下命令查看该进程中每个线程的资源使用情况 top -H -p pid  -H用于显示某个进程的所有线程 从这里获取pid(线程id),转换为16进制,然后去stack...通过上述方法,查出tomcat进程对应的线程cpu占用率累积之和约80%,远小于top给出的200%+ 说明并不存在长期占用cpu的线程,应该是属于有许多短暂性的cpu密集计算。

2.9K10

cpu使用率过高和jvm old占用过高排查过程

今天断断续续的收到管理平台的异常报警,cpu占用过高和jvm old占用过高,这个时候赶紧去排查原因,下面记录了我的排查过程,可能里面还有不正确的地方,欢迎各位大佬指正,也欢迎大家关于类似的案例一起交流...登录服务器找到占用 cpu过高线程堆栈信息 ①通过 top 命令找到占用cpu最高的 pid[进程id] ?...可以发现上面两个方法会创建很多对象且打印堆栈信息占用内存 gc线程 ? 可以发现占用cpu过高的线程进行大量的gc 通过 jstat -gcutil pid 时间间隔 查看 jc 信息 ?...查看占用cpu的进程 pid top -Hp pid 查看进程中占用cpu过高的线程id tid printf '%x/n' tid 转化为十六进制 jstack pid |grep tid的十六进制...-A 30 查看堆栈信息定位 jvm old区占用过高排查思路 top查看占用cpu高的进程 jstat -gcutil pid 时间间隔 查看gc状况 jmap -dump:format=b,file

2.3K20
领券