背景描述:
最近接到用户提报一台测试设备,反应服务器平均负载高,重启服务器后负载依旧高,针对此情况进行了以下处理。
分析解决:
关于平均负载的知识点
判断一般的负载,我们通常使用top或uptime进行分析。
$ uptime
06:34:00 up 2 days, 16:14, 1 user, load average: 0.63, 0.83, 0.88
它们分别是当前时间、系统运行时间以及正在登录用户数。
06:34:00 // 当前时间
up 2 days, 16:14 //系统运行时间
1 user // 正在登录用户数
而最后三个数字,依次则是过去 1 分钟、5 分钟、15 分钟的平均负载(Load Average)。
单来说,平均负载是指单位时间内,系统处于可运行状态和不可中断状态的平均进程数,也就是平均活跃进程数,它和CPU 使用率并没有直接关系。这里我先解释下,可运行状态和不可中断状态这俩词儿。
所谓可运行状态的进程,是指正在使用 CPU 或者正在等待 CPU 的进程,也就是我们常用 ps 命令看到的,处于 R 状态(Running 或 Runnable)的进程。
不可中断状态的进程则是正处于内核态关键流程中的进程,并且这些流程是不可打断的,比如最常见的是等待硬件设备的 I/O 响应,也就是我们在 ps 命令中看到的 D 状态(Uninterruptible Sleep,也称为 Disk Sleep)的进程。
比如,当一个进程向磁盘读写数据时,为了保证数据的一致性,在得到磁盘回复前,它是不能被其他进程或者中断打断的,这个时候的进程就处于不可中断状态。如果此时的进程被打断了,就容易出现磁盘数据与进程数据不一致的问题。
所以,不可中断状态实际上是系统对进程和硬件设备的一种保护机制。
平均负载与 CPU 使用率
现实工作中,我们经常容易把平均负载和 CPU 使用率混淆,所以在这里,我也做一个区分。
可能你会疑惑,既然平均负载代表的是活跃进程数,那平均负载高了,不就意味着 CPU 使用率高吗?
我们还是要回到平均负载的含义上来,平均负载是指单位时间内,处于可运行状态和不可中断状态的进程数。所以,它不仅包括了正在使用 CPU 的进程,还包括等待 CPU和等待 I/O 的进程。
而 CPU 使用率,是单位时间内 CPU 繁忙情况的统计,跟平均负载并不一定完全对应。比如:
①CPU 密集型进程,使用大量 CPU 会导致平均负载升高,此时这两者是一致的。
②I/O 密集型进程,等待 I/O 也会导致平均负载升高,但 CPU 使用率不一定很高。
③大量等待 CPU 的进程调度也会导致平均负载升高,此时的 CPU 使用率也会比较高。
检测过程如下:
[root@111~]# top
top - 15:03:07 up 5:11, 2 users, load average: 878.41, 870.63, 843.91
Tasks: 2981 total, 7 running, 2965 sleeping, 0 stopped, 9 zombie
Cpu(s): 0.0%us, 0.1%sy, 0.0%ni, 99.9%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Mem: 264474096k total, 3920140k used, 260553956k free, 554908k buffers
通过top,首先我们发现负载1,5,15分钟的平均负载非常高,但是CPU的空闲率为99.9%,非常像上文中的I/O 密集型进程,打个比方,地铁站门口排了很多等待的人,但是安检并没有放人,导致产生了大量的队列请求。正常的情况下,程序运行是一定会占用CPU和内存的。同时又发现存在僵尸进程。业务在尝试清理掉僵尸进程后,僵尸进程又重复出现。
[root@111~]# ps -axjf
4659 14665 14648 14648 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14659 14666 14648 14648 ? -1 S 600 0:00 \_ awk
1 14654 14650 14650 ? -1 D 600 0:00 /bin/sh -c sh /servers/autodeploy_agent/bin/daemon.sh once > /dev/null 2>&1 &
1 14755 14751 14751 ? -1 S 600 900583:00 sh /servers/jcollector/bin/Start.sh 2
14755 14769 14751 14751 ? -1 S 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14769 14771 14751 14751 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14769 14772 14751 14751 ? -1 S 600 0:00 \_ grep -v grep
14769 14773 14751 14751 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14769 14774 14751 14751 ? -1 S 600 0:00 \_ grep -v jcollectorStart.sh
14769 14775 14751 14751 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14769 14778 14751 14751 ? -1 S 600 0:00 \_ awk
15227 15229 14786 14786 ? -1 D 0 0:00 \_ -bash
1 14814 14809 14809 ? -1 S 600 0:00 sh /servers/jcollector/bin/Start.sh 2
14814 14828 14809 14809 ? -1 S 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14828 14829 14809 14809 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14828 14830 14809 14809 ? -1 S 600 0:00 \_ grep -v grep
14828 14831 14809 14809 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14828 14832 14809 14809 ? -1 S 600 0:00 \_ grep -v Start.sh
14828 14833 14809 14809 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14828 14834 14809 14809 ? -1 S 600 0:00 \_ awk
1 14912 14908 14908 ? -1 S 600 0:00 sh /servers/jcollector/bin/Start.sh 2
14912 14925 14908 14908 ? -1 S 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14925 14928 14908 14908 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14925 14930 14908 14908 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14925 14932 14908 14908 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
14925 14933 14908 14908 ? -1 S 600 0:00 \_ sed -n 1P
14925 14935 14908 14908 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2
1 14937 14910 14910 ? -1 D 600 900583:00 nohup setsid /App/observer-agent.jd.local/bin/agent.py --config /export/Ap
14965 14978 14959 14959 ? -1 D 600 0:00 \_ sh /servers/autodeploy_agent/bin/daemon.sh once
1 15030 15030 15030 ? -1 Ds 600 900583:00 setsid /App/observer-agent.jd.local/bin/agent.py --config /App/obse
查看到一些为D的进程,这些D的进程是无法被kill掉的,只能通过恢复其依赖性的资源或者重启解决。
通过再次分析,我们发现daemon.sh脚本中有一个while循环存在异常,联系脚本开发者修改确认后,问题解决。
经验总结:
此服务器为业务测试服务器。CPU队列长,负载越大,积压的任务越多,像D这种状态的进程可能是某些原因导致其依赖的资源出现问题,就一直积压在队列中,并且是多进程,导致CPU负载很高,但是CPU很空闲并伴随僵尸进程,所以跟脚本调用或者中了木马病毒有关系。
领取专属 10元无门槛券
私享最新 技术干货