前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >高并发 Nginx + lua是如何抗住的

高并发 Nginx + lua是如何抗住的

作者头像
邹志全
发布2019-07-31 11:13:59
1.2K1
发布2019-07-31 11:13:59
举报
文章被收录于专栏:EffectiveCodingEffectiveCoding

提到高并发或者抗压力,有这种高qps经验的同学第一反应大都是Nginx + lua + Redis,网上也满天非那种高并发架构方案大都是这种,但是Nginx + lua 来做接入层到底是怎么抗住压力的呢?

本篇顺序:

1、Nginx 如何抗住的高并发,工作模式是怎样的,利用了哪些技术

2、常见的IO模型及 异步非阻塞IO的优势

3、epoll相对于其他模型为何这么强大

第一阶段:

Nginx 不同于 Apache 的一点就是,Nginx 采用单线程,非阻塞,异步 IO 的工作模型,并不会每一个新进程都会起一个新的进程或者线程来处请求,Nginx利用的是epoll模型。然后来看一下Nginx的工作模型:

nginx 工作模型有两种实现方式:

单工作进程是指,一个工作进程中有多个工作线程,只有一个工作进程 + master进程

多工作进程是指,一个工作进程中只有一个工作线程,然后有多个工作进程 + master进程

就是下面这种机遇epoll 模型构建的单线程,非阻塞,异步 IO的 单线程处理多链接工作模型来抗住的压力,下面来仔细的看看Nginx的内部实现。

image.png

master 主要负责,接受管理员信号向worker发送指令,负责worker进程的生命周期,通知的类型有:worker 不再接受新请求、worker 退出&销毁等,可以把master 看作一个worker 的管理器,我们和master交互来间接管理worker。nginx一些无损重启或者reload配置文件等就是这么来实现的。

worker 顾名思义是处理具体网络事件的,从初始化nginx开始讲:

首先被创建的是master,在创建时先建立好需要listen的socket(listenfd),然后从master从fork出多个worker ,这样相当于master listenfd就被继承过来了,所以说所有的worker会在新连接到来时变得可读,为保证只有一个进程处理链接,所有的worder进程在注册listenfd读事件发生时会先去抢占accept_mutex,抢到互斥锁的那个worker进程才会注册listenfd读事件,在读事件里面调用accept接受连接,然后就开始读取请求、解析请求、处理、产生响应、断开连接。处理过程中如果碰到了IO操作,就开始使用基于epoll的非阻塞,异步 IO工作模式,发生IO时work会先把这个socket夯在哪里 去处理别的请求,等IO完成后再处理剩下的逻辑。nginx 就这么抗住了大量的连接并且充分利用cpu进行处理的。

然后从网上盗两张图来看一下nginx 创建监听到accept的流程:

image.png

然后监听字ngx_event_accept 的处理流程:

image.png

第二阶段:

所提到的异步 非阻塞IO 及常见几种IO的差别:

两阶段式IO:

image.jpeg

【阻塞 blocking IO】:

recvfrom -> [syscall -> wait -> copy ->] return OK!

image.jpeg

【非阻塞 nonblocking IO】:

recvfrom ->[syscall -> wait -> ] return no data ready

recvfrom ->[syscall -> wait -> ] return no data ready

recvfrom ->[syscall -> wait -> ] return data ready

recvfrom ->[syscall -> copy -> ] return OK!

image.jpeg

【多路复用IO multiplexingIO】

其中每个IO都是非阻塞IO,先使用poll/select 轮训IO句柄,如果有准备好的,开始第二阶段IO(阻塞读数据)

select/poll -> [syscall -> wait -> ] return readable

recvfrom -> [syscall -> copy -> ] return OK!

image.jpeg

【信号驱动IO signal driven IO】

首先构建一个信号处理器,然后第二阶段阻塞读数据

signal handle -> [syscal -> wait -> ] return

[syscall -> ] signal handle-> recvfrom -> [syscall -> copy -> ] return OK!

image.jpeg

【异步IO asynchronous IO】

两个阶段都是非阻塞的

aio_read -> [syscall -> wait -> ] return

[syscall -> copy -> ] aio_readCallback

【对比】

image.jpeg

image.jpeg

第三阶段:

select /poll/ epoll 对比

单个进程能够监视的文件描述符的数量存在最大限制,通常是1024,

select不足的地方:

1 每次select都要把全部IO句柄复制到内核

2 内核每次都要遍历全部IO句柄,以判断是否数据准备好

3 select模式最大IO句柄数是1024,太多了性能下降明显

poll:

poll使用链表保存文件描述符,因此没有了监视文件数量的限制,但其他三个缺点依然存在。

拿select模型为例,假设我们的服务器需要支持100万的并发连接,则在_FD_SETSIZE为1024的情况下,则我们至少需要开辟1k个进程才能实现100万的并发连接。除了进程间上下文切换的时间消耗外,从内核/用户空间大量的无脑内存拷贝、数组轮询等,是系统难以承受的。因此,基于select模型的服务器程序,要达到10万级别的并发访问,是一个很难完成的任务。

epoll的特点

1 每次新建IO句柄(epoll_create)才复制并注册(epoll_register)到内核

2 内核根据IO事件,把准备好的IO句柄放到就绪队列

3 应用只要轮询(epoll_wait)就绪队列,然后去读取数据

只需要轮询就绪队列(数量少),不存在select的轮询,也没有内核的轮询,不需要多次复制所有的IO句柄。因此,可以同时支持的IO句柄数轻松过百万。

详细的可以看一下这篇文章:

https://zhuanlan.zhihu.com/p/39970630

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019.07.20 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
云数据库 Redis
腾讯云数据库 Redis(TencentDB for Redis)是腾讯云打造的兼容 Redis 协议的缓存和存储服务。丰富的数据结构能帮助您完成不同类型的业务场景开发。支持主从热备,提供自动容灾切换、数据备份、故障迁移、实例监控、在线扩容、数据回档等全套的数据库服务。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档