首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

CPU负载高的处理过程

背景描述:

最近接到用户提报一台测试设备,反应服务器平均负载高,重启服务器后负载依旧高,针对此情况进行了以下处理。

分析解决:

关于平均负载的知识点

判断一般的负载,我们通常使用top或uptime进行分析。

$ uptime

06:34:00 up 2 days, 16:14, 1 user, load average: 0.63, 0.83, 0.88

它们分别是当前时间、系统运行时间以及正在登录用户数。

06:34:00 // 当前时间

up 2 days, 16:14 //系统运行时间

1 user // 正在登录用户数

而最后三个数字,依次则是过去 1 分钟、5 分钟、15 分钟的平均负载(Load Average)。

单来说,平均负载是指单位时间内,系统处于可运行状态和不可中断状态的平均进程数,也就是平均活跃进程数,它和CPU 使用率并没有直接关系。这里我先解释下,可运行状态和不可中断状态这俩词儿。

所谓可运行状态的进程,是指正在使用 CPU 或者正在等待 CPU 的进程,也就是我们常用 ps 命令看到的,处于 R 状态(Running 或 Runnable)的进程。

不可中断状态的进程则是正处于内核态关键流程中的进程,并且这些流程是不可打断的,比如最常见的是等待硬件设备的 I/O 响应,也就是我们在 ps 命令中看到的 D 状态(Uninterruptible Sleep,也称为 Disk Sleep)的进程。

比如,当一个进程向磁盘读写数据时,为了保证数据的一致性,在得到磁盘回复前,它是不能被其他进程或者中断打断的,这个时候的进程就处于不可中断状态。如果此时的进程被打断了,就容易出现磁盘数据与进程数据不一致的问题。

所以,不可中断状态实际上是系统对进程和硬件设备的一种保护机制。

平均负载与 CPU 使用率

现实工作中,我们经常容易把平均负载和 CPU 使用率混淆,所以在这里,我也做一个区分。

可能你会疑惑,既然平均负载代表的是活跃进程数,那平均负载高了,不就意味着 CPU 使用率高吗?

我们还是要回到平均负载的含义上来,平均负载是指单位时间内,处于可运行状态和不可中断状态的进程数。所以,它不仅包括了正在使用 CPU 的进程,还包括等待 CPU和等待 I/O 的进程。

而 CPU 使用率,是单位时间内 CPU 繁忙情况的统计,跟平均负载并不一定完全对应。比如:

①CPU 密集型进程,使用大量 CPU 会导致平均负载升高,此时这两者是一致的。

②I/O 密集型进程,等待 I/O 也会导致平均负载升高,但 CPU 使用率不一定很高。

③大量等待 CPU 的进程调度也会导致平均负载升高,此时的 CPU 使用率也会比较高。

检测过程如下:

[root@111~]# top

top - 15:03:07 up 5:11, 2 users, load average: 878.41, 870.63, 843.91

Tasks: 2981 total, 7 running, 2965 sleeping, 0 stopped, 9 zombie

Cpu(s): 0.0%us, 0.1%sy, 0.0%ni, 99.9%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st

Mem: 264474096k total, 3920140k used, 260553956k free, 554908k buffers

通过top,首先我们发现负载1,5,15分钟的平均负载非常高,但是CPU的空闲率为99.9%,非常像上文中的I/O 密集型进程,打个比方,地铁站门口排了很多等待的人,但是安检并没有放人,导致产生了大量的队列请求。正常的情况下,程序运行是一定会占用CPU和内存的。同时又发现存在僵尸进程。业务在尝试清理掉僵尸进程后,僵尸进程又重复出现。

[root@111~]# ps -axjf

4659 14665 14648 14648 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14659 14666 14648 14648 ? -1 S 600 0:00 \_ awk

1 14654 14650 14650 ? -1 D 600 0:00 /bin/sh -c sh /servers/autodeploy_agent/bin/daemon.sh once > /dev/null 2>&1 &

1 14755 14751 14751 ? -1 S 600 900583:00 sh /servers/jcollector/bin/Start.sh 2

14755 14769 14751 14751 ? -1 S 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14769 14771 14751 14751 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14769 14772 14751 14751 ? -1 S 600 0:00 \_ grep -v grep

14769 14773 14751 14751 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14769 14774 14751 14751 ? -1 S 600 0:00 \_ grep -v jcollectorStart.sh

14769 14775 14751 14751 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14769 14778 14751 14751 ? -1 S 600 0:00 \_ awk

15227 15229 14786 14786 ? -1 D 0 0:00 \_ -bash

1 14814 14809 14809 ? -1 S 600 0:00 sh /servers/jcollector/bin/Start.sh 2

14814 14828 14809 14809 ? -1 S 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14828 14829 14809 14809 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14828 14830 14809 14809 ? -1 S 600 0:00 \_ grep -v grep

14828 14831 14809 14809 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14828 14832 14809 14809 ? -1 S 600 0:00 \_ grep -v Start.sh

14828 14833 14809 14809 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14828 14834 14809 14809 ? -1 S 600 0:00 \_ awk

1 14912 14908 14908 ? -1 S 600 0:00 sh /servers/jcollector/bin/Start.sh 2

14912 14925 14908 14908 ? -1 S 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14925 14928 14908 14908 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14925 14930 14908 14908 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14925 14932 14908 14908 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

14925 14933 14908 14908 ? -1 S 600 0:00 \_ sed -n 1P

14925 14935 14908 14908 ? -1 D 600 0:00 \_ sh /servers/jcollector/bin/Start.sh 2

1 14937 14910 14910 ? -1 D 600 900583:00 nohup setsid /App/observer-agent.jd.local/bin/agent.py --config /export/Ap

14965 14978 14959 14959 ? -1 D 600 0:00 \_ sh /servers/autodeploy_agent/bin/daemon.sh once

1 15030 15030 15030 ? -1 Ds 600 900583:00 setsid /App/observer-agent.jd.local/bin/agent.py --config /App/obse

查看到一些为D的进程,这些D的进程是无法被kill掉的,只能通过恢复其依赖性的资源或者重启解决。

通过再次分析,我们发现daemon.sh脚本中有一个while循环存在异常,联系脚本开发者修改确认后,问题解决。

经验总结:

此服务器为业务测试服务器。CPU队列长,负载越大,积压的任务越多,像D这种状态的进程可能是某些原因导致其依赖的资源出现问题,就一直积压在队列中,并且是多进程,导致CPU负载很高,但是CPU很空闲并伴随僵尸进程,所以跟脚本调用或者中了木马病毒有关系。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181228G0DAJG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券