专栏首页GitHub专栏Nginx系列教程(三)| 一文带你读懂Nginx的负载均衡

Nginx系列教程(三)| 一文带你读懂Nginx的负载均衡

一、负载均衡

当一台服务器的访问量越大时,服务器所承受的压力也就越大,超出自身所指定的访问压力就会崩掉,避免发生此类事情的发生,因此也就有了负载均衡来分担服务器的压力。

那么究竟什么是负载均衡呢?通俗些讲,就是我们有几十台、几百台甚至更多服务器,将这些服务器组成一个服务器集群,当客户端访问某台设备的数据时,首先发送的请求先到一台中间服务器,并通过中间服务器在服务器集群中平均分摊到其他服务器中,因此,当用户每次所发送的请求都将会保证服务器集群中的设备均与平摊,以此来分担服务器的压力,从而保持服务器集群的整理性能最优,避免出现有崩溃的现象。

二、Nginx负载均衡的作用

  • 转发功能:Nginx 会按照一定的算法轮询、权重将客户端发来的请求转发至不同的应用服务器上,同时减轻单台服务器的压力,提高服务器的并发量;
  • 故障迁移:当一台服务器出现了故障时,客户端发来的请求将自动发送到其他服务器;
  • 添加恢复:当故障服务器恢复正常工作时,将自动添加到处理用户请求中;

三、Nginx负载均衡的几种策略方式

1)轮询(默认)

客户端发出的每个请求将按照时间顺序逐一分配到不同的后端服务器,如后端服务器down掉,能自动剔除。

upstream backserver {
    server 192.168.1.10;
    server 192.168.1.11;
    }
2)weight

weight 代表权重,默认为1,权重越高被分配的客户端也就越多。

指定轮询几率,weight访问比率成正比,用于后端服务器性能不均的情况,也就是说:哪个 server 的连接数少,路由就到哪个 server 中去。

upstream backserver {
    server 192.168.1.10 weight=3;
    server 192.168.1.11 weight=7;
}
3)ip_hash

每个请求按访问 IP 的hash结果分配,每个访客固定访问一个后端服务器,可解决session的问题。

upstream backserver {
    ip_hash;
    server 192.168.1.10:80;
    server 192.168.1.11:88;
    }
4)fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream backserver {
    server server1;
    server server2;
    fair;
    }

5)url_hash(第三方)

按访问urlhash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

upstream backserver {
    server squid1:3128;
    server squid2:3128;
    hash $request_uri;
    hash_method crc32;
    }

四、常见的负载均衡方案有哪些?

将下图进行拆分,其常见互联网分布式架构,主要分为:

  • 客户端层
  • 反向代理层
  • 服务器站点层
  • 服务层
  • 数据层

因此,可以看出,从一台客户端发出的请求到最终的数据层,上游都可以访问到下游,实现最终的均匀平摊。

第一层:从客户端层到反向代理层

客户端层到反向代理层的负载均衡,通过DNS轮询实现,在DNS服务器上对应的域名配置多个IP,当客户端发出的请求到DNS服务器时,会轮询返回对应域名配置的 IP,保证解析的IP是必须与Nginx服务器的IP是相同的,以此Nginx服务器的请求分配也将是均衡的。

第二层:从反向代理层到服务器站点层

反向代理层到服务器站点层的负载均衡,通过Nginx实现,修改nginx.conf配置文件,实现多种负载均衡策略;

PS:这里我们通过nginx.conf配置文件的方式进行实现,其主要实现的方式可参考上述:三、Nginx负载均衡的几种方式(主要包括:轮询、weight、ip_hash、fair(第三方)、url_hash(第三方)的相关描述)

第三层:从服务器站点层到服务层

服务器站点层到服务层的负载均衡,是通过服务连接池实现的,上游连接池会建立与下游服务多个连接,每次请求将会随机选取连接来访问下游服务。

第四层:从服务层到数据层

服务层到数据层时,数据量很大的情况下,数据层(db,cache)会涉及数据的水平切分,所以数据层的负载均衡会更加复杂一些,分为数据的均衡请求的均衡

  • 数据的均衡:是指水平切分后的每个服务(db,cache)数据量是均匀的。
  • 请求的均衡:是指水平切分后的每个服务(db,cache)请求量是均匀的。

常见的水平切分方式有两种:

第一种:按照range水平切分

每一个数据服务,存储一定范围的数据

  • user0 服务,存储 uid 范围:1-1kw
  • user1 服务,存储 uid 范围:1kw-2kw

这个方案的好处是:

  • 规则简单,service 只需判断一下 uid 范围就能路由到对应的存储服务;
  • 数据均衡性较好
  • 易扩展,可随时加一个 uid [2kw,3kw] 的数据服务;

这个方案的不足是:

请求的负载不一定均衡,对新用户会比老用户更活跃,大 range 的服务请求压力会更大。

第二种:按照 id 哈希水平切分

每一个数据服务,存储某个 key 值 hash 后的部分数据

  • user0 服务,存储偶数 uid 数据
  • user1 服务,存储奇数 uid 数据

这个方案的好处是:

  • 规则简单,service 需对 uid 进行 hash 能路由到对应的存储服务;
  • 数据均衡性较好
  • 请求均匀性较好

这个方案的不足是:

  • 不易扩展,扩展一个数据服务,hash 方法改变时候,可能需要进行数据迁移。

五、Nginx负载均衡配置实例

1、实现效果

在浏览器地址栏中输入http://192.168.1.10/abc/20200320.html,负载均衡效果平均到端口号80808081中。

2、准备工作

1) 准备两台Tomcat服务器,一台服务器为8080,另一台服务器为8081

2) 分别在两台Tomcat服务器中的webapps目录中,创建名称是abc文件夹,在abc文件夹中创建页面20200320.html,进行测试。

在上一篇文章中,我们对其两台Tomcat服务创建好了80808081,所以这里我们就无需在创建了,并且分别查看80808081服务下webapps目录中是否都存在测试页面文件,如没有可自行创建即可。

Tomcat8080

# cat /root/tomcat8080/apache-tomcat-7.0.70/webapps/abc/20200320.html
<h1>welcome to tomcat 8080!</h1>

Tomcat8081

# cd /root/tomcat8081/apache-tomcat-7.0.70/webapps/
# mkdir abc
# cd abc/
# vim 20200320.html
<h1>welcome to tomcat 8081!</h1>

切换到/root/tomcat8081/apache-tomcat-7.0.70/bin/目录下,启动8081Tomcat服务。

# ./startup.sh 
Using CATALINA_BASE:   /root/tomcat8081/apache-tomcat-7.0.70
Using CATALINA_HOME:   /root/tomcat8081/apache-tomcat-7.0.70
Using CATALINA_TMPDIR: /root/tomcat8081/apache-tomcat-7.0.70/temp
Using JRE_HOME:        /usr
Using CLASSPATH:       /root/tomcat8081/apache-tomcat-7.0.70/bin/bootstrap.jar:/root/tomcat8081/apache-tomcat-7.0.70/bin/tomcat-juli.jar
Tomcat started.

测试验证

在客户端浏览器中分别测试Tomcat8080http://192.168.1.10/abc/20200320.htmlTomcat8081http://192.168.1.10:8081/abc/20200320.html进行验证。

Tomcat8080

Tomcat8081

3) 在 Nginx 的配置文件中进行负载均衡的配置;

http模块下添加upstream myserver配置、server_name 由原来的localhost改为Nginx服务器地址,在location下添加proxy_pass http://myserver;即可;

# vim /usr/local/nginx/conf/nginx.conf
 17 http {
 18 ......
 34     upstream myserver {
 35         server 192.168.1.10:8080;
 36         server 192.168.1.10:8081;
 37     }
 38 
 39     server {
 40         listen       80;
 41         server_name  192.168.1.10;
 42 
 43         #charset koi8-r;
 44 
 45         #access_log  logs/host.access.log  main;
 46 
 47         location / {
 48             proxy_pass http://myserver;
 49             root   html;
 50             index  index.html index.htm;
 51         }
 52 ......

操作完 Nginx 文件的负载均衡的配置后,重启Nginx服务,出现如下问题:

# ./nginx -s stop
nginx: [warn] conflicting server name "192.168.1.10" on 0.0.0.0:80, ignored
# ./nginx

意思是重复绑定了server name,该警告不会影响到服务器运行。而且,这个重复绑定的意思是现在运行的Nginx服务和将要加载的新配置中的重复,所以,这个警告其实是不必的。

测试验证

在客户端浏览器中输入:http://192.168.1.10/abc/20200320.html,不断刷新,观察变化,这就是在将客户端发出的请求分担到不同的Tomcat服务中去,也就是所谓负载均衡的一个效果。

负载均衡所实现的效果

总结

通过本篇文章介绍了什么的负载均衡Nginx负载均衡的作用Nginx负载均衡的几种策略方式常见的负载均衡方案Nginx负载均衡配置实例等;负载均衡是分布式系统架构设计中必须考虑的因素之一,通常是指:将请求/数据均匀分摊到多个操作单元上执行,其的关键在于均匀:

  • 反向代理层的负载均衡,是通过DNS轮询实现;
  • 服务器站点层的负载均衡,是通过Nginx实现;
  • 服务层的负载均衡,是通过服务连接池实现;
  • 数据层的负载均衡,要考虑数据的均衡请求的均衡两点,其常见的方式有按照范围水平切分hash水平切分

本文分享自微信公众号 - 杰哥的IT之旅(Jake_Internet),作者:JackTian

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2020-03-26

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • Nginx系列教程(一)| 手把手教你在Linux环境下搭建Nginx服务

    Nginx是一个高性能的HTTP和反向代理Web服务器,也提供了IMAP / POP3 / SMTP服务,由伊戈尔·赛索耶夫为俄罗斯访问量第二的Rambler....

    杰哥的IT之旅
  • Nginx系列教程(二)| 一文带你读懂Nginx的正向与反向代理

    正向代理:你可以这样理解,就是把局域网以外的 Internet 想象成一个外网世界,那么当我们局域网中的客户端设备要访问局域网以外的 Internet 时,需在...

    杰哥的IT之旅
  • 搞懂这 9 个步骤,DNS 访问原理就明明白白了

    前两天遇到一个面试的小伙伴,他说面试官和他聊得很投机,无意中谈到了DNS请求的过程。他一时语塞随便应付了两句,虽然对方没有追问的意思,但最后面试结果也并不理想。...

    杰哥的IT之旅
  • Nginx总结(六)如何配置实现负载均衡

    前面讲了如何配置Nginx虚拟主机也介绍了如何配置Nginx和Tomcat实现反向代理,大家可以去这里看看nginx系列文章:https://www.cnblo...

    架构师精进
  • 负载均衡基础知识

     互联网早期,业务流量比较小并且业务逻辑比较简单,单台服务器便可以满足基本的需求;但随着互联网的发展,业务流量越来越大并且业务逻辑也越来越复杂,单台机器的性能问...

    哲洛不闹
  • 四层和七层负载均衡的区别

    (一) 简单理解四层和七层负载均衡: ① 所谓四层就是基于IP+端口的负载均衡;七层就是基于URL等应用层信息的负载均衡;同理,还有基于MAC地址的二层负载...

    小小科
  • linux负载均衡总结性说明(四层负载/七层负载)

    在常规运维工作中,经常会运用到负载均衡服务。负载均衡分为四层负载和七层负载,那么这两者之间有什么不同? 废话不多说,详解如下: 一,什么是负载均衡 1)负载均衡...

    洗尽了浮华
  • 负载均衡 - 综述

    1 什么是负载均衡 网络的各个核心部件随着业务量的提高、访问量和数据流量的快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担。在此情况下,如果扔...

    三丰SanFeng
  • [Linux]搭建Anki同步服务器(针对Anki2.1)

    针对Anki2.0的版本:https://blog.csdn.net/humanking7/article/details/89299138

    祥知道
  • 负载均衡方式的对比选择

    每个服务器的配置会有差异,可能某个服务器还需要兼顾其他应用服务。所以它也许不能像同集群里的其他机器一样完成一样大小的任务。

    宣言言言

扫码关注云+社区

领取腾讯云代金券