前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >你知道一台Linux服务器可以负载多少个连接吗

你知道一台Linux服务器可以负载多少个连接吗

作者头像
砸漏
发布2020-10-19 15:16:34
2.4K0
发布2020-10-19 15:16:34
举报
文章被收录于专栏:恩蓝脚本

前言

首先我们来看如何标识一个TCP连接?系统是通过一个四元组来识别,(src_ip,src_port,dst_ip,dst_port)即源IP、源端口、目标IP、目标端口。比如我们有一台服务192.168.0.1,开启端口80.那么所有的客户端都会连接到这台服务的80端口上面。有一种误解,就是我们常说一台机器有65536个端口,那么承载的连接数就是65536个,这个说法是极其错误的,这就混淆了源端口和访问目标端口。我们做压测的时候,利用压测客户端,这个客户端的连接数是受到端口数的限制,但是服务器上面的连接数可以达到成千上万个,一般可以达到百万(4C8G配置),至于上限是多少,需要看优化的程度。具体做法如下:

我们在压测一台目标服务器,想看下负载的连接数,当我们压到一定数量的时候,控制台突然报”too many open files”,这是因为linux系统创建一个TCP连接的时候,都会创建一个socket句柄,每个socket句柄就是一个文件句柄。操作系统对打开的文件句柄数量是有限制的。Unix/Linux 基本哲学之一就是 “一切皆文件”,要提高TCP承载量,就需要调整文件句柄。

第一步:修改文件句柄数量限制

代码语言:javascript
复制
# 查看当前用户允许TCP打开的文件句柄最大数
ulimit -n

# 修改文件句柄
vim /etc/security/limits.conf

* soft nofile 655350
* hard nofile 655350

修改后,退出终端窗口,重新登录(不需要重启服务器),就能看到最新的结果了。这是优化的第一步,修改文件句柄限制。

注意: soft nofile (软限制)是指Linux在当前系统能够承受的范围内进一步限制用户同时打开的文件数 hard nofile (硬限制)是根据系统硬件资源状况(主要是系统内存)计算出来的系统最多可同时打开的文件数量 通常软限制小于或等于硬限制

第二步:TCP参数调优

参数

默认配置

调整配置

说明

fs.file-max

1048576

9999999

所有进程打开的文件描述符数

fs.nr_open

1635590

1635590

单个进程可分配的最大文件数

net.core.rmem_default

124928

262144

默认的TCP读取缓冲区

net.core.wmem_default

124928

262144

默认的TCP发送缓冲区

net.core.rmem_max

124928

8388608

默认的TCP最大读取缓冲区

net.core.wmem_max

124928

8388608

默认的TCP最大发送缓冲区

net.ipv4.tcp_wmem

4096 16384 4194304

4096 16384 8388608

TCP发送缓冲区

net.ipv4.tcp_rmem

4096 87380 4194304

4096 87380 8388608

TCP读取缓冲区

net.ipv4.tcp_mem

384657 512877 769314

384657 512877 3057792

TCP内存大小

net.core.netdev_max_backlog

1000

5000

在每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目

net.core.optmem_max

20480

81920

每个套接字所允许的最大缓冲区的大小

net.core.somaxconn

128

2048

每一个端口最大的监听队列的长度,这是个全局的参数

net.ipv4.tcp_fin_timeout

60

30

对于本端断开的socket连接,TCP保持在FIN-WAIT-2状态的时间(秒)。对方可能会断开连接或一直不结束连接或不可预料的进程死亡

net.core.netdev_max_backlog

1000

10000

在每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目

net.ipv4.tcp_max_syn_backlog

1024

2048

对于还未获得对方确认的连接请求,可保存在队列中的最大数目。如果服务器经常出现过载,可以尝试增加这个数字

net.ipv4.tcp_max_tw_buckets

5000

5000

系统在同时所处理的最大timewait sockets数目

net.ipv4.tcp_tw_reuse

0

1

是否允许将TIME-WAIT sockets重新用于新的TCP连接

net.ipv4.tcp_keepalive_time

7200

900

表示TCP链接在多少秒之后没有数据报文传输时启动探测报文(发送空的报文)

net.ipv4.tcp_keepalive_intvl

75

30

表示前一个探测报文和后一个探测报文之间的时间间隔

net.ipv4.tcp_keepalive_probes

9

3

表示探测的次数

从上面的配置参数中我们可以知道,在Linux内核中为tcp发送和接收都做了缓冲队列,这样可以提高系统的吞吐量。

以上这些参数都是在 /etc/sysctl.conf 文件中定义的,有的参数在文件中可能没有定义,系统给定了默认值,需要修改的话,直接在文件中添加或修改,然后执行sysctl -p命令让其生效。

注意: 参数值并不是设置的越大越好,有的需要考虑服务器的硬件配置,参数对服务器上其它服务的影响等。

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对ZaLou.Cn的支持。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-09-11 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档