前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >压测nginx出现no live upstreams while connecting to upstream的问题分析

压测nginx出现no live upstreams while connecting to upstream的问题分析

作者头像
用户5166556
发布2020-11-05 14:54:55
16.1K0
发布2020-11-05 14:54:55
举报

基础环境

版本信息

  • Centos 7.1
  • nginx version: openresty/1.13.6.2

nginx配置信息

代码语言:javascript
复制
stream {
    server {
        listen 53 udp;
        proxy_pass close_stream_backend;
    }
    upstream close_stream_backend {
        server 10.0.1.2:53;
        server 10.0.1.3:53;
    }
}

异常问题

20个线程连续压测一分钟后开始交替出现两台目标机器已经宕机(单线程访问没什么问题),出现日志如下所示:

代码语言:javascript
复制
[error] 7184#0: *142585778 no live upstreams while connecting to upstream, udp client: 10.0.1.2, server: 0.0.0.0:53, upstream: "dns", bytes from/to client:40/0, bytes from/to upstream:0/0

主要有两个疑惑点:首先直接访问目标机器,目标机器处于正常访问状态,而且没什么压力;另外一点如果负载均衡目标服务机器两台改为一台反而不会出现这个异常,但是服务所在机器压力非常大;所以怀疑是nginx这台机器除了问题。

分析解决

  1. nginx官网查询了下负载均衡策略含义,大概意思是这样的,首先nginx默认的配置为轮询,负载均衡的各个模块组成了一个链表,每次从链表到头开始往后处理,如果连接失败了,就去尝试连下一个,如果所有的都失败了,就会进行quick recovery 把每个peer的失败次数都重置为0,然后再返回一个NGX_BUSY,然后nginx就会打印一条no live upstreams ,最后又回到原始状态,接着进行下次转发。查看配置文件,如果其中一台有一次失败,nginx就会认为它已经死掉,然后就会把以后的流量全都打到另一台上面,当另外一台也有一次失败的时候,就认为两个都死掉了,就开始打印错误日志。
  2. 第一个想到的办法就是增大重试次数和时间,server 10.0.1.2:53 max_fails=5 fail_timeout=60s;把max_fails从1改成5,有一定效果,no live upstreams出现的概率变少了很多,但却没有完全消失。另外压测QPS上不去,还不如单台机器。
  3. 于是使用tcpdump -i eth2 udp port 53 -s0 -XXnn,通过wireshark分析后,压力测试工具产生数据已经全部发送到nginx所在机器,但是这台机器没有正确处理。
  4. 后来想了下Nginx底层采用的IO多路复用模型epoll,其epoll又是基于linux内核实现,于是看了下/var/log/messages内核日志,于是发现大量如下丢包日志:
代码语言:javascript
复制
kernel: nf_conntrack: table full, dropping packet.

为了证实问题,再次进行压力数据发送,发现只有再进行压力测试时才会出现这种内核丢包日志。怀疑是服务器访问量大,内核netfilter模块conntrack相关参数配置不合理,最终导致新连接被drop掉。

  1. 查看netfilter参数配置 sudo sysctl -a | grep conntrack 发现65536,于是我直接提升了4倍
代码语言:javascript
复制
sudo sysctl -w net.netfilter.nf_conntrack_max=262144
suod sysctl -w net.nf_conntrack_max=262144

执行sudo sysctl -p使其立即生效,再次执行压力测试,发现内核不在出现丢包,nginx也不会出现如上错误日志,问题解决。

总结分析

本文主要通过分析nginx网络请求异常,然后定位为内核参数设置太小导致丢包,最后通过修改内核配置解决,但是conntrack又是什么?搜索之后发现conntrack是针对状态防火墙的。如果有兴趣,请阅读Netfilter的连接跟踪系统。它还包括Netfilter基本的框架。因此conntrack是用来创建记录连接状态以检查流量并避免DDoS安全问题。

另外如上分析问题的过程中,我直接把conntrack值设置为原来的四倍,这样是否合理?碰到这类问题,又该如何设置呢?下面给出一个公式:推荐大小:CONNTRACK_MAX = RAMSIZE (in bytes) / 16384 / (ARCH / 32)。例如,在x86_64 OS中,我有8GB内存,因此我将它设置为8*1024^3/16384/2=262144。以上就是我分析解决问题的整个过程,如果问题,请关注公众号、加我微信,一起讨论!

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2020-11-02 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 基础环境
  • 异常问题
  • 分析解决
  • 总结分析
相关产品与服务
负载均衡
负载均衡(Cloud Load Balancer,CLB)提供安全快捷的流量分发服务,访问流量经由 CLB 可以自动分配到云中的多台后端服务器上,扩展系统的服务能力并消除单点故障。负载均衡支持亿级连接和千万级并发,可轻松应对大流量访问,满足业务需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档