让事件飞 ——Linux eventfd 原理与实践

原文作者:杨阳

1. eventfd/timerfd 简介

目前越来越多的应用程序采用事件驱动的方式实现功能,如何高效地利用系统资源实现通知的管理和送达就愈发变得重要起来。在Linux系统中,eventfd是一个用来通知事件的文件描述符,timerfd是的定时器事件的文件描述符。二者都是内核向用户空间的应用发送通知的机制,可以有效地被用来实现用户空间的事件/通知驱动的应用程序。

简而言之,就是eventfd用来触发事件通知,timerfd用来触发将来的事件通知。

开发者使用eventfd相关的系统调用,需要包含头文件;对于timerfd,则是。

系统调用eventfd/timerfd自linux 2.6.22版本加入内核,由Davide Libenzi最初实现和维护。

2. 接口及参数介绍

eventfd

对于eventfd,只有一个系统调用接口

1int eventfd(unsigned int initval, int flags);

创建一个eventfd对象,或者说打开一个eventfd的文件,类似普通文件的open操作。

该对象是一个内核维护的无符号的64位整型计数器。初始化为initval的值。

flags可以以下三个标志位的OR结果:

  • EFD_CLOEXEC:FD_CLOEXEC,简单说就是fork子进程时不继承,对于多线程的程序设上这个值不会有错的。
  • EFD_NONBLOCK:文件会被设置成O_NONBLOCK,一般要设置。
  • EFD_SEMAPHORE:(2.6.30以后支持)支持semophore语义的read,简单说就值递减1。

这个新建的fd的操作很简单:

read(): 读操作就是将counter值置0,如果是semophore就减1。

write(): 设置counter的值。

注意,还支持epoll/poll/select操作,当然,以及每种fd都都必须实现的close。

timerfd

对于timerfd,有三个涉及的系统调用接口

1int timerfd_create(int clockid, int flags);int timerfd_settime(int fd, int flags,
2                           const struct itimerspec *new_value,
3                           struct itimerspec *old_value);int timerfd_gettime(int fd, struct itimerspec *curr_value);

timerfd_create就是用来创建新的timerfd对象,clockid可以指定时钟的种类,比较常用的有两种:CLOCK_REALTIME(实时时钟)或 CLOCK_MONOTONIC(单调递增时钟)。实时时钟是指系统的时钟,它可以被手工修改。而后者单调递增时钟则是不会被系统时钟的人为设置的不连续所影响的。通常选择后者。而flags的选择,TFD_CLOEXEC和TFD_NONBLOCK的意义就比较直接了。

timerfd_settime函数用来设置定时器的过期时间expiration。itmerspec结构定义如下:

1struct timespec {
2    time_t tv_sec;                /* Seconds */
3    long   tv_nsec;               /* Nanoseconds */};struct itimerspec {
4    struct timespec it_interval;  /* Interval for periodic timer */
5    struct timespec it_value;     /* Initial expiration */};

该结构包含两个时间间隔:it_value是指第一次过期时间,it_interval是指第一次到期之后的周期性触发到期的间隔时间,(设为0的话就是到期第一次)。

old_value如果不为NULL,将会用调用时间来更新old_value所指的itimerspec结构对象。

timerfd_gettime():返回当前timerfd对象的设置值到curr_value指针所指的对象。

read():读操作的语义是:如果定时器到期了,返回到期的次数,结果存在一个8字节的整数(uint64_6);如果没有到期,则阻塞至到期,或返回EAGAIN(取决于是否设置了NONBLOCK)。

另外,支持epoll,同eventfd。

3. 使用实例 - 实现高性能消费者线程池

生产者-消费者设计模式是常见的后台架构模式。本实例将实现多个生产者和多个消费者的事件通知框架,用以阐释eventfd/timerfd在线程通信中作为通知实现的典型场景。

本实例采用以下设计:生产者创建eventfd/timerfd并在事件循环中注册事件;消费者线程池中的线程共用一个epoll对象,每个消费者线程并行地进行针对eventfd或timerfd触发的事件循环的轮询(epoll_wait)。

eventfd对应实现

 1typedef struct thread_info {
 2    pthread_t thread_id;
 3    int rank;
 4    int epfd;} thread_info_t;static void *consumer_routine(void *data) {
 5    struct thread_info *c = (struct thread_info *)data;
 6    struct epoll_event *events;
 7    int epfd = c->epfd;
 8    int nfds = -1;
 9    int i = -1;
10    uint64_t result;
11
12    log("Greetings from [consumer-%d]", c->rank);
13    events = calloc(MAX_EVENTS_SIZE, sizeof(struct epoll_event));
14    if (events == NULL) handle_error("calloc epoll events\n");
15
16    for (;;) {
17        nfds = epoll_wait(epfd, events, MAX_EVENTS_SIZE, 1000); // poll every second
18        for (i = 0; i < nfds; i++) {
19            if (events[i].events & EPOLLIN) {
20                log("[consumer-%d] got event from fd-%d", c->rank, events[i].data.fd);
21                // consume events (reset eventfd)
22                read(events[i].data.fd, &result, sizeof(uint64_t));
23                close(events[i].data.fd);   // NOTE: need to close here
24            }
25        }
26    }}static void *producer_routine(void *data) {
27    struct thread_info *p = (struct thread_info *)data;
28    struct epoll_event event;
29    int epfd = p->epfd;
30    int efd = -1;
31    int ret = -1;
32
33    log("Greetings from [producer-%d]", p->rank);
34    while (1) {
35        sleep(1);
36        // create eventfd (no reuse, create new every time)
37        efd = eventfd(1, EFD_CLOEXEC|EFD_NONBLOCK);
38        if (efd == -1) handle_error("eventfd create: %s", strerror(errno));
39        // register to poller
40        event.data.fd = efd;
41        event.events = EPOLLIN | EPOLLET;    // Edge-Triggered
42        ret = epoll_ctl(epfd, EPOLL_CTL_ADD, efd, &event);
43        if (ret != 0) handle_error("epoll_ctl");
44        // trigger (repeatedly)
45        write(efd, (void *)0xffffffff, sizeof(uint64_t));
46    }}int main(int argc, char *argv[]) {
47    struct thread_info *p_list = NULL, *c_list = NULL;
48    int epfd = -1;
49    int ret = -1, i = -1;
50    // create epoll fd
51    epfd = epoll_create1(EPOLL_CLOEXEC);
52    if (epfd == -1) handle_error("epoll_create1: %s", strerror(errno));
53    // producers
54    p_list = calloc(NUM_PRODUCERS, sizeof(struct thread_info));
55    if (!p_list) handle_error("calloc");
56    for (i = 0; i < NUM_PRODUCERS; i++) {
57        p_list[i].rank = i;
58        p_list[i].epfd = epfd;
59        ret = pthread_create(&p_list[i].thread_id, NULL, producer_routine, &p_list[i]);
60        if (ret != 0) handle_error("pthread_create");
61    }
62    // consumers
63    c_list = calloc(NUM_CONSUMERS, sizeof(struct thread_info));
64    if (!c_list) handle_error("calloc");
65    for (i = 0; i < NUM_CONSUMERS; i++) {
66        c_list[i].rank = i;
67        c_list[i].epfd = epfd;
68        ret = pthread_create(&c_list[i].thread_id, NULL, consumer_routine, &c_list[i]);
69        if (ret != 0) handle_error("pthread_create");
70    }
71    // join and exit
72    for (i = 0; i < NUM_PRODUCERS; i++) {
73        ret = pthread_join(p_list[i].thread_id, NULL);
74        if (ret != 0) handle_error("pthread_join");
75    }
76    for (i = 0; i < NUM_CONSUMERS; i++) {
77        ret = pthread_join(c_list[i].thread_id, NULL);
78        if (ret != 0) handle_error("pthread_join");
79    }
80    free(p_list);
81    free(c_list);
82    return EXIT_SUCCESS;}

执行过程(2个生产者,4个消费者):

 1[1532099804] Greetings from [producer-0]
 2[1532099804] Greetings from [producer-1]
 3[1532099804] Greetings from [consumer-0]
 4[1532099804] Greetings from [consumer-1]
 5[1532099804] Greetings from [consumer-2]
 6[1532099804] Greetings from [consumer-3]
 7[1532099805] [consumer-3] got event from fd-4
 8[1532099805] [consumer-3] got event from fd-5
 9[1532099806] [consumer-0] got event from fd-4
10[1532099806] [consumer-0] got event from fd-4
11[1532099807] [consumer-1] got event from fd-4
12[1532099807] [consumer-1] got event from fd-5
13[1532099808] [consumer-3] got event from fd-4
14[1532099808] [consumer-3] got event from fd-5
15^C

结果符合预期(附:源码链接)

注意,推荐在eventfd在打开时设置NON_BLOCKING,并在注册至epoll监听对象时设为EPOLLET(尽管一次8字节的read就可以读完整个计数器到用户空间),因为毕竟,只有采用了非阻塞IO和边沿触发,epoll的并发能力才能完全发挥极致。

另外,本实例中的eventfd消费地非常高效,fd号几乎不会超过5(前四个分别为stdin/stdout/stderr/eventpoll),但实际应用中往往在close前会执行一些事务,随着消费者线程的增加,eventfd打开的文件也会增加(这个数值得上限由系统的ulimit -n决定)。然而,eventfd打开、读写和关闭都效非常高,因为它本质并不是文件,而是kernel在内核空间(内存中)维护的一个64位计数器而已。

timerfd对应实现

main函数和consumer线程实现几乎一致,而producer线程创建timerfd,并注册到事件循环中。

timer的it_value设为1秒,即第一次触发为1秒以后;it_interval设为3秒,即后续每3秒再次触发一次。

注意,timerfd_settime函数的位置与之前eventfd的write的相同,二者达到了类似的设置事件的作用,只不过这次是定时器事件。

 1static void *producer_routine(void *data) {
 2    struct thread_info *p = (struct thread_info *)data;
 3    struct epoll_event event;
 4    int epfd = p->epfd;
 5    int tfd = -1;
 6    int ret = -1;
 7    struct itimerspec its;
 8    its.it_value.tv_sec = 1;    // initial expiration
 9    its.it_value.tv_nsec = 0;
10    its.it_interval.tv_sec = 3; // interval
11    its.it_interval.tv_nsec = 0;
12
13    log("Greetings from [producer-%d]", p->rank);
14    // create timerfd
15    tfd = timerfd_create(CLOCK_MONOTONIC, TFD_CLOEXEC|TFD_NONBLOCK);
16    if (tfd == -1) handle_error("timerfd create: %s", strerror(errno));
17    // register to poller
18    event.data.fd = tfd;
19    event.events = EPOLLIN | EPOLLET;    // Edge-Triggered
20    ret = epoll_ctl(epfd, EPOLL_CTL_ADD, tfd, &event);
21    if (ret != 0) handle_error("epoll_ctl");
22    // register timer expired in future
23    ret = timerfd_settime(tfd, 0, &its, NULL);
24    if (ret != 0) handle_error("timerfd settime");
25    return (void *)0;}

执行过程(2个生产者,4个消费者):

 1[1532099143] Greetings from [producer-1]
 2[1532099143] Greetings from [consumer-1]
 3[1532099143] Greetings from [consumer-2]
 4[1532099143] Greetings from [consumer-3]
 5[1532099143] Greetings from [consumer-0]
 6[1532099143] Greetings from [producer-0]
 7[1532099144] [consumer-3] got event from fd-4
 8[1532099144] [consumer-3] got event from fd-5
 9[1532099147] [consumer-3] got event from fd-4
10[1532099147] [consumer-3] got event from fd-5
11[1532099150] [consumer-0] got event from fd-4
12[1532099150] [consumer-0] got event from fd-5
13[1532099153] [consumer-1] got event from fd-4
14[1532099153] [consumer-1] got event from fd-5
15^C

从上图可以看出,运行时打开的fd-4和fd-5两个文件描述符即是timerfd。

结果符合预期(附:源码链接)

4. 典型应用场景及优势

引用eventfs的Manual中NOTE段落的第一句话:

Applications can use an eventfd file descriptor instead of a pipe in all cases where a pipe is used simply to signal events.

在信号通知的场景下,相比pipe有非常大的资源和性能优势。其根本在于counter(计数器)和channel(数据信道)的区别。

  • 第一,是打开文件数量的巨大差别。由于pipe是半双工的传统IPC方式,所以两个线程通信需要两个pipe文件,而用eventfd只要打开一个文件。众所周知,文件描述符可是系统中非常宝贵的资源,linux的默认值也只有1024而已。那开发者可能会说,1相比2也只节省了一半嘛。要知道pipe只能在两个进程/线程间使用,并且是面向连接(类似TCP socket)的,即需要之前准备好两个pipe;而eventfd是广播式的通知,可以多对多的。如上面的NxM的生产者-消费者例子,如果需要完成全双工的通信,需要NxMx2个的pipe,而且需要提前建立并保持打开,作为通知信号实在太奢侈了,但如果用eventfd,只需要在发通知的时候瞬时创建、触发并关闭一个即可。
  • 第二,是内存使用的差别。eventfd是一个计数器,内核维护几乎成本忽略不计,大概是自旋锁+唤醒队列(后续详细介绍),8个字节的传输成本也微乎其微。但pipe可就完全不是了,一来一回数据在用户空间和内核空间有多达4次的复制,而且更糟糕的是,内核还要为每个pipe分配至少4K的虚拟内存页,哪怕传输的数据长度为0。
  • 第三,对于timerfd,还有精准度和实现复杂度的巨大差异。由内核管理的timerfd底层是内核中的hrtimer(高精度时钟定时器),可以精确至纳秒(1e-9秒)级,完全胜任实时任务。而用户态要想实现一个传统的定时器,通常是基于优先队列/二叉堆,不仅实现复杂维护成本高,而且运行时效率低,通常只能到达毫秒级。

所以,第一个最佳实践法则:当pipe只用来发送通知(传输控制信息而不是实际数据),放弃pipe,放心地用eventfd/timerfd,"in all cases"。

另外一个重要优势就是eventfd/timerfd被设计成与epoll完美结合,比如支持非阻塞的读取等。事实上,二者就是为epoll而生的(但是pipe就不是,它在Unix的史前时代就有了,那时不仅没有epoll连Linux都还没诞生)。应用程序可以在用epoll监控其他文件描述符的状态的同时,可以“顺便“”一起监控实现了eventfd的内核通知机制,何乐而不为呢?

所以,第二个最佳实践法则:eventfd配上epoll才更搭哦。

5. 内核实现细节

eventfd在内核源码中,作为syscall实现在内核源码的 fs/eventfd.c下。从Linux 2.6.22版本引入内核,在2.6.27版本以后加入对flag的支持。以下分析参考Linux 2.6.27源码。

内核中的数据结构:eventfd_ctx

该结构除了包括之前所介绍的一个64位的计数器,还包括了等待队列头节点(较新的kernel中还加上了一个kref)。

定义和初始化过程核心代码如下,比较直接:内核malloc,设置count值,创建eventfd的anon_inode。

1struct eventfd_ctx {
2        wait_queue_head_t wqh;
3        __u64 count;};

以下为创建eventfd的函数的片段,比较直接。

 1SYSCALL_DEFINE2(eventfd2, unsigned int, count, int, flags) {
 2        // ...
 3    ctx = kmalloc(sizeof(*ctx), GFP_KERNEL);
 4    if (!ctx)
 5        return -ENOMEM;
 6    init_waitqueue_head(&ctx->wqh);
 7    ctx->count = count;
 8    fd = anon_inode_getfd("[eventfd]", &eventfd_fops, ctx,
 9                  flags & (O_CLOEXEC | O_NONBLOCK));
10        // ...}

稍提一下,等待队列是内核中的重要数据结构,在进程调度、异步通知等多种场景都有很多的应用。其节点结构并不复杂,即自带自旋锁的双向循环链表的节点,如下:

1struct __wait_queue_head {
2    spinlock_t lock;
3    struct list_head task_list;};typedef struct __wait_queue_head wait_queue_head_t;

等待队列中存放的是task(内存中对线程的抽象)的结构。

操作等待队列的函数主要是和调度相关的函数,如:wake_up和schedule,它们位于sched.c中,前者即唤醒当前等待队列中的task,后者为当前task主动让出CPU时间给等待队列中的其他task。这样,便通过等待队列实现了多个task在运行中(TASK_RUNNING)和IO等待(TASK_INTERRUPTABLE)中的状态切换。

让我们一起复习下,系统中进程的状态转换:

  • TASK_RUNNING: 正在在CPU上运行,或者在执行队列(run queue)等待被调度执行。
  • TASK_INTERRUPTIBLE: 睡眠中等待默写事件出现,task可以被信号打断,一旦接收到信号或显示调用了wake-up,转为TASK_RUNNING状态。常见于IO等待中。

清楚了task的两种状态以及run queue / wait queue原理,read函数就不难理解了。

以下是read函数的实现:

 1static ssize_t eventfd_read(struct file *file, char __user *buf, size_t count,
 2                loff_t *ppos){
 3    struct eventfd_ctx *ctx = file->private_data;
 4    ssize_t res;
 5    __u64 ucnt;
 6    DECLARE_WAITQUEUE(wait, current);
 7
 8    if (count < sizeof(ucnt))
 9        return -EINVAL;
10    spin_lock_irq(&ctx->wqh.lock);
11    res = -EAGAIN;
12    ucnt = ctx->count;
13    if (ucnt > 0)
14        res = sizeof(ucnt);
15    else if (!(file->f_flags & O_NONBLOCK)) {
16        __add_wait_queue(&ctx->wqh, &wait);
17        for (res = 0;;) {
18            set_current_state(TASK_INTERRUPTIBLE);
19            if (ctx->count > 0) {
20                ucnt = ctx->count;
21                res = sizeof(ucnt);
22                break;
23            }
24            if (signal_pending(current)) {
25                res = -ERESTARTSYS;
26                break;
27            }
28            spin_unlock_irq(&ctx->wqh.lock);
29            schedule();
30            spin_lock_irq(&ctx->wqh.lock);
31        }
32        __remove_wait_queue(&ctx->wqh, &wait);
33        __set_current_state(TASK_RUNNING);
34    }
35    if (res > 0) {
36        ctx->count = 0;
37        if (waitqueue_active(&ctx->wqh))
38            wake_up_locked(&ctx->wqh);
39    }
40    spin_unlock_irq(&ctx->wqh.lock);
41    if (res > 0 && put_user(ucnt, (__u64 __user *) buf))
42        return -EFAULT;
43
44    return res;}

read操作目的是要将count值返回用户空间并清零。ctx中的count值是共享数据,通过加irq自旋锁实现对其的独占安全访问,spin_lock_irq函数可以禁止本地中断和抢占,在SMP体系中也是安全的。从源码可以看出,如果是对于(通常的epoll中的,也是上面实例中的)非阻塞读,count大于0则直接返回并清零,count等于0则直接返回EAGAIN。

对于阻塞读,如果count值为0则加入等待队列并阻塞,直到值不为0时(被其他线程更新)返回。阻塞是如何实现的呢?是通过TASK_INTERRUPTABLE状态下的循环加schedule。注意,schedule前释放了自旋锁,意味着允许其他线程更新值,只要值被更新大于0且又再次获得cpu时间,那么就可以跳出循环继续执行而返回了。

考虑一个情景,两个线程几乎同时read请求,那么:两个都会被加入到等待队列中,当第一个抢到自旋锁,返回了大于1的res并重置了count为0,此时它会(在倒数第二个if那里) 第一时间唤醒等待队列中的其他线程,此时第二个线程被调度到,于是开始了自己的循环等待。即实现了:事件只会通知到第一个接收到的线程。

那么问题来了:我们知道在其他线程write后,阻塞的read线程是马上返回的。那么如何能在count置一旦不为0时,等待的调度的阻塞读线程可以尽快地再次获得cpu时间,从而继续执行呢?关键在于write函数也有当确认可以成功返回时,主动调用wakeup_locked的过程,这样就能实现write后立即向等待队列通知的效果了。

write操作与read操作过程非常相似,不在此展开。

关于poll操作的核心代码如下:

1// ...
2        spin_lock_irqsave(&ctx->wqh.lock, flags);
3    if (ctx->count > 0)
4        events |= POLLIN;
5    if (ctx->count == ULLONG_MAX)
6        events |= POLLERR;
7    if (ULLONG_MAX - 1 > ctx->count)
8        events |= POLLOUT;
9    spin_unlock_irqrestore(&ctx->wqh.lock, flags);

在count值大于0时,返回了设置POLLIN标志的事件,使得用户层的应用可以通过epoll监控 eventfd的可读事件状态。

6. 本篇小结

通过对eventfd/timerfd的接口和实现的了解,可以看出其不仅功能实用,而且调用方式简单。另外,其实现是非常精巧高效的,构建于内核众多系统基础核心功能之上,为用户态的应用封装了十分高效简单的事件通知机制。

7. 参考资料

Linux 内核源码 https://elixir.bootlin.com/linux/latest/source/fs/eventfd.c

Linux Programmer's Manual eventfd(2) - Linux manual page


版权申明:内容来源网络,版权归原创者所有。除非无法确认,我们都会标明作者及出处,如有侵权烦请告知,我们会立即删除并表示歉意。谢谢。

原文发布于微信公众号 - Golang语言社区(Golangweb)

原文发表时间:2018-07-30

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏pangguoming

Java后端WebSocket的Tomcat实现

文章摘要随着互联网的发展,传统的HTTP协议已经很难满足Web应用日益复杂的需求了。近年来,随着HTML5的诞生,WebSocket协议被提出,它实现了浏览器与...

74260
来自专栏用户2442861的专栏

使用ThinkPHP框架快速开发网站(多图)

http://blog.csdn.net/ruby97/article/details/7574851/

2.8K20
来自专栏Golang语言社区

Go微服务 - 构建我们的第一个服务

虽然通过HTTP提供JSON服务不是内部服务和外部服务的唯一选择,但本文聚焦的是HTTP和JSON. 使用RPC机制和二进制消息格式(例如Protocol Bu...

25840
来自专栏文大师的新世界

6. Bug Fix以及前期总结

修复1个简单bug,在Android手机里因为有Back按键,所有需要特殊处理,直接贴代码如下: 修改app/navigation/index.js添加如下代...

14520
来自专栏Java成神之路

Web 通信 之 长连接、长轮询(long polling)

基于HTTP的长连接,是一种通过长轮询方式实现"服务器推"的技术,它弥补了HTTP简单的请求应答模式的不足,极大地增强了程序的实时性和交互性。

53130
来自专栏JAVA高级架构

Java技术大纲

46030
来自专栏青蛙要fly的专栏

Android技能树 — 网络小结(4)之socket/websocket/webservice

介于自己的网络方面知识烂的一塌糊涂,所以准备写相关网络的文章,但是考虑全部写在一篇太长了,所以分开写,希望大家能仔细看,最好可以指出我的错误,让我也能纠正。

11630
来自专栏炉边夜话

RESTful API 设计最佳实践

目前互联网上充斥着大量的关于RESTful API(为了方便,以后API和RESTful API 一个意思)如何设计的文章,然而却没有一个”万能“的设计标准:如...

60940
来自专栏我的小碗汤

6个最好的Go语言Web框架

原文:Top 6 web frameworks for Go as of 2017

22710
来自专栏木子昭的博客

微信小程序通过ip获取用户所在城市

1.2K30

扫码关注云+社区

领取腾讯云代金券