前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >几种服务器端IO模型的简单介绍及实现(下)

几种服务器端IO模型的简单介绍及实现(下)

作者头像
李海彬
发布2018-03-23 10:33:29
6500
发布2018-03-23 10:33:29
举报

5、使用事件驱动库libevent的服务器模型

Libevent 是一种高性能事件循环/事件驱动库。

为了实际处理每个请求,libevent 库提供一种事件机制,它作为底层网络后端的包装器。事件系统让为连接添加处理函数变得非常简便,同时降低了底层IO复杂性。这是 libevent 系统的核心。

创建 libevent 服务器的基本方法是,注册当发生某一操作(比如接受来自客户端的连接)时应该执行的函数,然后调用主事件循环 event_dispatch()。执行过程的控制现在由 libevent 系统处理。注册事件和将调用的函数之后,事件系统开始自治;在应用程序运行时,可以在事件队列中添加(注册)或 删除(取消注册)事件。事件注册非常方便,可以通过它添加新事件以处理新打开的连接,从而构建灵活的网络处理系统。

使用Libevent实现的一个回显服务器如下:

#include <event2/event.h>

#include <assert.h>

#include <string.h>

#include <stdlib.h>

#include <stdio.h>

#include <errno.h>

#define MAX_LINE 16384

void do_read(evutil_socket_t fd, short events, void *arg);

void do_write(evutil_socket_t fd, short events, void *arg);

struct fd_state

{

char buffer[MAX_LINE];

size_t buffer_used;

size_t n_written;

size_t write_upto;

struct event *read_event;

struct event *write_event;

};

struct fd_state * alloc_fd_state(struct event_base *base, evutil_socket_t fd)

{

struct fd_state *state = (struct fd_state *)malloc(sizeof(struct fd_state));

if (!state)

{

return NULL;

}

state->read_event = event_new(base, fd, EV_READ|EV_PERSIST, do_read, state);

if (!state->read_event)

{

free(state);

return NULL;

}

state->write_event = event_new(base, fd, EV_WRITE, do_write, state);

if (!state->write_event)

{

event_free(state->read_event);

free(state);

return NULL;

}

memset(state->buffer,0,MAX_LINE);

state->buffer_used = state->n_written = state->write_upto = 0;

return state;

}

void free_fd_state(struct fd_state *state)

{

event_free(state->read_event);

event_free(state->write_event);

free(state);

}

void do_read(evutil_socket_t fd, short events, void *arg)

{

struct fd_state *state = (struct fd_state *) arg;

char buf[1024];

int i;

int result;

assert(state->write_event);

while(1)

{

memset(buf,0,1024);

result = recv(fd, buf, sizeof(buf), 0);

if (result <= 0)

{

break;

}

else

{

for (i=0; i < result; ++i)

{

if (state->buffer_used < sizeof(state->buffer))

state->buffer[state->buffer_used++] = buf[i];

}

}

}

printf("receive data: %s size: %d\n",state->buffer+state->n_written,state->write_upto-state->n_written);

assert(state->write_event);

event_add(state->write_event, NULL);

state->write_upto = state->buffer_used;

if (result == 0)

{

printf("connect closed \n");

free_fd_state(state);

}

else if (result < 0)

{

#ifdef WIN32

if (result == -1 && WSAGetLastError()==WSAEWOULDBLOCK)

return;

#else

if (errno == EAGAIN)

return;

#endif

perror("recv");

free_fd_state(state);

}

}

void do_write(evutil_socket_t fd, short events, void *arg)

{

struct fd_state *state = (struct fd_state *)arg;

while (state->n_written < state->write_upto)

{

int result = send(fd, state->buffer + state->n_written,

state->write_upto - state->n_written, 0);

if (result < 0)

{

#ifdef WIN32

if (result == -1 && WSAGetLastError()==WSAEWOULDBLOCK)

return;

#else

if (errno == EAGAIN)

return;

#endif

free_fd_state(state);

return;

}

assert(result != 0);

printf("send data: %s \n",state->buffer+ state->n_written);

state->n_written += result;

}

//buffer is full

if (state->n_written == state->buffer_used)

{

state->n_written = state->write_upto = state->buffer_used = 0;

memset(state->buffer,0,MAX_LINE);

}

}

void do_accept(evutil_socket_t listener, short event, void *arg)

{

struct event_base *base = (struct event_base *)arg;

struct sockaddr_in ss;

int slen = sizeof(ss);

int fd = accept(listener, (struct sockaddr*)&ss, &slen);

if (fd > 0)

{

printf("accept socket %d, address %s \n",fd,inet_ntoa(ss.sin_addr));

struct fd_state *state;

evutil_make_socket_nonblocking(fd);

state = alloc_fd_state(base, fd);

assert(state);

assert(state->read_event);

event_add(state->read_event, NULL);

}

}

void run()

{

int listener;

struct sockaddr_in addr_server;

struct event_base *base;

struct event *listener_event;

base = event_base_new();

if (!base)

{

perror("event_base_new error");

return;

}

addr_server.sin_addr.S_un.S_addr = ADDR_ANY;

addr_server.sin_family = AF_INET;

addr_server.sin_addr.s_addr = 0;

addr_server.sin_port = htons(10286);

listener = socket(AF_INET, SOCK_STREAM, 0);

evutil_make_socket_nonblocking(listener);

int one = 1;

setsockopt(listener, SOL_SOCKET, SO_REUSEADDR, (const char *)&one, sizeof(one));

if (bind(listener, (struct sockaddr*)&addr_server, sizeof(addr_server)) < 0)

{

perror("bind error");

return;

}

if (listen(listener, 10)<0)

{

perror("listen error");

return;

}

printf("server is listening ... \n");

listener_event = event_new(base, listener, EV_READ|EV_PERSIST, do_accept, (void*)base);

event_add(listener_event, NULL);

event_base_dispatch(base);

}

int init_win_socket()

{

WSADATA wsaData;

if(WSAStartup(MAKEWORD(2,2) , &wsaData ) != 0)

{

return -1;

}

return 0;

}

int main(int c, char **v)

{

#ifdef WIN32

init_win_socket();

#endif

run();

getchar();

return 0;

}

6、信号驱动IO模型(Signal-driven IO)

使用信号,让内核在描述符就绪时发送SIGIO信号通知应用程序,称这种模型为信号驱动式I/O(signal-driven I/O)。

图示如下:

首先开启套接字的信号驱动式I/O功能,并通过sigaction系统调用安装一个信号处理函数。该系统调用将立即返回,我们的进程继续工作,也就是说进程没有被阻塞。当数据报准备好读取时,内核就为该进程产生一个SIGIO信号。随后就可以在信号处理函数中调用recvfrom读取数据报,并通知主循环数据已经准备好待处理,也可以立即通知主循环,让它读取数据报。

无论如何处理SIGIO信号,这种模型的优势在于等待数据报到达期间进程不被阻塞。主循环可以继续执行 ,只要等到来自信号处理函数的通知:既可以是数据已准备好被处理,也可以是数据报已准备好被读取。

7、异步IO模型(asynchronous IO)

异步I/O(asynchronous I/O)由POSIX规范定义。演变成当前POSIX规范的各种早起标准所定义的实时函数中存在的差异已经取得一致。一般地说,这些函数的工作机制是:告知内核启动某个操作,并让内核在整个操作(包括将数据从内核复制到我们自己的缓冲区)完成后通知我们。这种模型与前一节介绍的信号驱动模型的主要区别在于:信号驱动式I/O是由内核通知我们何时可以启动一个I/O操作,而异步I/O模型是由内核通知我们I/O操作何时完成。

示意图如下:

我们调用aio_read函数(POSIX异步I/O函数以aio_或lio_开头),给内核传递描述符、缓冲区指针、缓冲区大小(与read相同的三个参数)和文件偏移(与lseek类似),并告诉内核当整个操作完成时如何通知我们。该系统调用立即返回,并且在等待I/O完成期间,我们的进程不被阻塞。本例子中我们假设要求内核在操作完成时产生某个信号,该信号直到数据已复制到应用进程缓冲区才产生,这一点不同于信号驱动I/O模型。

参考:

《UNIX网络编程》

使用 libevent 和 libev 提高网络应用性能:http://www.ibm.com/developerworks/cn/aix/library/au-libev/

使用异步 I/O 大大提高应用程序的性能:https://www.ibm.com/developerworks/cn/linux/l-async/

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-08-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Golang语言社区 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档