专栏首页皮振伟的专栏[linux][perf]list过长导致CPU消耗过高的问题分析

[linux][perf]list过长导致CPU消耗过高的问题分析

前言

某机器上网络出现时断时续的问题,网络的同事发现ovs进程的CPU消耗很高,硬件offload的规则下发卡住的问题。即通过netlink向内核发送消息卡住。

分析

perf分析热点函数

可见,CPU的主要消耗是在__tcf_chain_get函数和__mutex_lock上。

为什么锁消耗那么高

rtnetlink_rcv_msg函数(去掉参数检查等等,保留关键逻辑),通过这段逻辑我们可以知道,在执行每个netlink命令的时候,都会先执行锁操作,在执行具体的回调函数(即link->doit),再解锁的过程。

如果其中某一个回调函数执行时间过长,就会长时间占用锁,造成其他的link->doit回调函数block住更长的时间,那么锁的消耗也会更高。

再结合其他的代码逻辑可以发现,__tcf_chain_get函数就刚好在某一个回调函数的路径上。

Annotate __tcf_chain_get

分析上面的热点函数__tcf_chain_get

__tcf_chain_get比较长,理论上来说,一个cmp指令只要一个cycle即可,那么在这里为什么一个cmp指令使用了99.13%的CPU时间呢?可以从汇编中看到,需要取rax偏移0x18的地址上数值和esi进行比较。这里存在一次读取内存的操作,如果是链表的话,前后两个链表元素未必在内存上相邻,容易造成CPU的cache miss。

计算热点代码的路径

ffffffff8161ab40+1d= ffffffff8161ab5d

所以执行addr2line -e /usr/lib/debug/vmlinux-4.19 -a 0xffffffff8161ab5d

0xffffffff8161ab5d

可以得到/linux/net/sched/cls_api.c:268

可以看到268行是对chain->index和chain_index进行对比。

继续看tcf_chain结构体

index结构在tcf_chain结构体中偏移0x20,为什么反汇编的代码在0x18上?

结合上下文我们可以看到,使用list来遍历:

chain的地址是在list的地址-0x8,index的地址是在chain+0x20,那么index的地址相对于list的地址就是+0x18,计算chain的过程都被编译器优化掉了,只需要使用list的地址+0x18即可完成代码逻辑中的遍历过程。

综上,可以证实,__tcf_chain_get消耗过高的原因是:遍历list的过程中遇到了比较多的cache miss;遍历了太多的链表元素的导致的。

计算链表的长度

基于kprobe实现kmod,来dump出来链表的长度。

#include <linux/kernel.h>
#include <linux/module.h>
#include <linux/kprobes.h>
#include <linux/uaccess.h>
#include <net/sch_generic.h>


static long filter_count(struct tcf_chain *chain)
{
  struct tcf_proto *tp;
  long count = 0;

  for (tp = rtnl_dereference(chain->filter_chain);
      tp; tp = rtnl_dereference(tp->next)) {
    count++;
  }
  return count;
}


static int kp_do_tcf_handler(struct kprobe *p, struct pt_regs *regs)
{
  struct tcf_block *block = (void __user *)regs->di;
  struct tcf_chain *chain;
  long count = 0;

  list_for_each_entry(chain, &block->chain_list, list) {
    count++;
  }

  printk("[always]count = %ld\n", count);

  return 0;
}

static struct kprobe kp = {
  .symbol_name  = "__tcf_chain_get",
  .pre_handler = kp_do_tcf_handler,
};

static int __init kprobe_init(void)
{
  int ret;

  ret = register_kprobe(&kp);
  if (ret < 0) {
    pr_err("register_kprobe failed, returned %d\n", ret);
    return ret;
  }

  pr_info("[probe-tcf]Planted kprobe at %p\n", kp.addr);
  return 0;
}

static void __exit kprobe_exit(void)
{
  unregister_kprobe(&kp);
  pr_info("[probe-unregistered]kprobe at %p unregistered\n", kp.addr);
}

module_init(kprobe_init)
module_exit(kprobe_exit)
MODULE_LICENSE("GPL");
MODULE_AUTHOR("pizhenwei pizhenwei@bytedance.com");

得到dump的结果

可以知道list的元素多少不等,有的不到100,有的到达了接近25W个元素。由此可以论证上面的猜测,链表元素太多。

找到哪个dev的链表元素过多

再进一步完善kprobe的逻辑,

#include <linux/kernel.h>
#include <linux/module.h>
#include <linux/kprobes.h>
#include <linux/uaccess.h>
#include <net/sch_generic.h>

static long filter_count(struct tcf_chain *chain)
{
  struct tcf_proto *tp;
  long count = 0;

  for (tp = rtnl_dereference(chain->filter_chain);
      tp; tp = rtnl_dereference(tp->next)) {
    count++;
  }

  return count;
}

static int kp_do_tcf_handler(struct kprobe *p, struct pt_regs *regs)
{
  struct tcf_block *block = (void __user *)regs->di;
  struct tcf_chain *chain;
  long count = 0, tps;
  long tpc[4] = {0};  //绘制filter count分布图
  long ref[4] = {0};  //绘制refcnt的分布图
  long action_ref[4] = {0};  //绘制action_refcnt的分布图
  long actrefonly = 0;  //过滤出来action_refcnt等于refcnt的分布图

  list_for_each_entry(chain, &block->chain_list, list) {
    count++;

    tps = filter_count(chain);
    if (tps == 0)
      tpc[0]++;
    else if (tps > 0 && tps <= 1)
      tpc[1]++;
    else if (tps > 1 && tps <= 2)
      tpc[2]++;
    else
      tpc[3]++;

    if (chain->refcnt == 0)
      ref[0]++;
    else if (chain->refcnt > 0 && chain->refcnt <= 1)
      ref[1]++;
    else if (chain->refcnt > 1 && chain->refcnt <= 2)
      ref[2]++;
    else
      ref[3]++;

    if (chain->action_refcnt == 0)
      action_ref[0]++;
    else if (chain->action_refcnt > 0 && chain->action_refcnt <= 1)
      action_ref[1]++;
    else if (chain->action_refcnt > 1 && chain->action_refcnt <= 2)
      action_ref[2]++;
    else
      action_ref[3]++;


    if (chain->action_refcnt == chain->refcnt)
      actrefonly++;
  }


#if 1
  if (count < 1000)  //过滤链表元素少于1000的情况
    return 0;
#endif

  printk("[always]DEV %s\n", block→q→dev_queue→dev→name);  //打印出来异常的netdev的名字

  printk("[always][0]count = %ld\t", tpc[0]);
  printk("[always][1]count = %ld\t", tpc[1]);
  printk("[always][2]count = %ld\t", tpc[2]);
  printk("[always][4]count = %ld\n", tpc[3]);

  printk("[always][0]action_ref = %ld\t", action_ref[0]);
  printk("[always][1]action_ref = %ld\t", action_ref[1]);
  printk("[always][2]action_ref = %ld\t", action_ref[2]);
  printk("[always][4]action_ref = %ld\n", action_ref[3]);

  printk("[always][0]ref = %ld\t", ref[0]);
  printk("[always][1]ref = %ld\t", ref[1]);
  printk("[always][2]ref = %ld\t", ref[2]);
  printk("[always][4]ref = %ld\n", ref[3]);

  printk("[always]actrefonly = %ld\n", actrefonly);

  return 0;
}

static struct kprobe kp = {
  .symbol_name  = "__tcf_chain_get",
  .pre_handler = kp_do_tcf_handler,
};

static int __init kprobe_init(void)
{
  int ret;

  ret = register_kprobe(&kp);
  if (ret < 0) {
    pr_err("register_kprobe failed, returned %d\n", ret);
    return ret;
  }

  pr_info("[probe-tcf]Planted kprobe at %p\n", kp.addr);
  return 0;
}

static void __exit kprobe_exit(void)
{
  unregister_kprobe(&kp);
  pr_info("[probe-unregistered]kprobe at %p unregistered\n", kp.addr);
}

module_init(kprobe_init)
module_exit(kprobe_exit)
MODULE_LICENSE("GPL");
MODULE_AUTHOR("pizhenwei pizhenwei@bytedance.com");

得到dump出来的结果

至此,我们已经找到了vxlan_sys_4789上的元素比较多。

后面,经过网络同事的验证(通过tc命令dump出来结果),vxlan_sys_4789上的chain确实过多。脚本删除空的chain后,ovs的cpu消耗下降到10%以内,网络恢复正常。

本文分享自微信公众号 - AlwaysGeek(gh_d0972b1eeb60),作者:AlwaysGeek

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2019-12-08

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 常用Linux命令 (二)

    用于统计程序执行时间,这些事件包含程序从被调用到终止的时间,用户CPU时间,系统CPU时间。

    用户2131907
  • 干货 | 搞定 perf 和 gpertools

    在Linux下开发是幸福的,尤其是在发生问题的时候。永远忘不了在Windows下应用发生问题时那种无助的感觉。

    xjjdog
  • 程序员精进之路:性能调优利器--火焰图

    ? 作者:厉辉,腾讯 CSIG 后台开发工程师 本文主要分享火焰图使用技巧,介绍 systemtap 的原理机制,如何使用火焰图快速定位性能问题原因,同时加深...

    腾讯技术工程官方号
  • 火焰图:全局视野的Linux性能剖析

    日常的工作中,会收到一堆CPU使用率过高的告警邮件,遇到某台服务的CPU被占满了,这时候我们就要去查看是什么进程将服务器的CPU资源占用满了。通常我们会通过to...

    公众号: 云原生生态圈
  • [linux][atop]atop的改进和在统计io上遇到的问题

    前言 互联网公司一般都会运行着几千到几万的服务器。一般的监控会采用类似ganglia/falcon类似的工具,在本地启动一个agent,把数据统计上报到集中式的...

    皮振伟
  • 内存回收导致关键业务抖动案例分析-论云原生OS内存QoS保障

    蒋彪,腾讯云高级工程师,10+年专注于操作系统相关技术,Linux内核资深发烧友。目前负责腾讯云原生OS的研发,以及OS/虚拟化的性能优化工作。 导语 云原生...

    腾讯云原生
  • 掌握运维必备技能--问题故障定位

    a. on-CPU:执行中,执行中的时间通常又分为用户态时间user和系统态时间sys。

    用户6543014
  • 如何读懂火焰图?

    来源:阮一峰的博客 www.ruanyifeng.com/blog/2017/09/flame-graph.html 软件的性能分析,往往需要查看 CPU 耗...

    顶级程序员
  • Linux问题故障定位,看这一篇就够了

    有时候会遇到一些疑难杂症,并且监控插件并不能一眼立马发现问题的根源。这时候就需要登录服务器进一步深入分析问题的根源。那么分析问题需要有一定的技术经验积累,并且有...

    十四君

扫码关注云+社区

领取腾讯云代金券