专栏首页IT大咖说nginx使用学习之正向代理、反向代理、负载均衡(配置实例详解)

nginx使用学习之正向代理、反向代理、负载均衡(配置实例详解)

正向代理

Nginx 不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访 问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。

  • 简单一点:通过代理服务器来访问服务器的过程 就叫 正向代理。
  • 需要在客户端配置代理服务器进行指定网站访问

反向代理

反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问。

我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器 IP 地址。

nginx反向代理配置实例

1. 实现效果

打开浏览器,在浏览器地址栏输入地址 www.123.com,跳转到 liunx 系统 tomcat 主页 面中

2. 准备工作

(1)在 liunx 系统安装 tomcat,使用默认端口 8080,我这里8080被其他应用占用,所以我已修改端口为8081。在conf目录下的server.xml配置文件中,如下,将port改为 8081,其实下面也有类似的Connector 标签,但是要看protocol协议为HTTP/1.1的标签修改即可。

<Connector port="8081" protocol="HTTP/1.1"
 connectionTimeout="20000"
 redirectPort="8443" />

tomcat 安装文件放到 liunx 系统中,解压。 Tomcat的路径:/usr/feng/apach-tomcat/tomcat8081下

进入 tomcat 的 bin 目录中,./startup.sh 启动 tomcat 服务器。

(2)对外开放访问的端口 (我这里不需要)

firewall-cmd --add-port=8080/tcp --permanent

firewall-cmd –reload

查看已经开放的端口号 firewall-cmd --list-all

(3)在 windows 系统中通过浏览器访问 tomcat 服务器 别忘了开启tomcat,在bin目录下,使用 命令:

./startup.sh

3. 访问过程的分析

4、具体配置

a. 第一步 在 windows 系统的 host 文件进行域名和 ip 对应关系的配置

添加内容在 host 文件中

b . 第二步 在 nginx 进行请求转发的配置(反向代理配置)

5、最终测试

如上配置,我们监听 80 端口,访问域名为 www.123.com,不加端口号时默认为 80 端口,故 访问该域名时会跳转到 127.0.0.1:8081 路径上。在浏览器端输入 www.123.com 结果如下:

负载均衡

增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的 情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负 载均衡

客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服 务器处理完毕后,再将结果返回给客户端。

这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成 本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂 度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易 造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情 况呢?

我们首先想到的可能是升级服务器的配置,比如提高 CPU 执行频率,加大内存等提高机 器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能 满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量 是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能 够满足需求的。那么怎么办呢?上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题 的办法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了,单个服务器解 决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们 所说的负载均衡

Nginx 负载均衡 配置实例

1. 实现效果

浏览器地址栏输入地址 http://208.208.128.122/edu/a.html,负载均衡效果,平均 8081 和 8082 端口中

2. 准备工作

a.准备两台 tomcat 服务器

准备两台 tomcat 服务器,一台 8081,一台 8082

上面的反向代理第二个实例中已经配置成功了。但是需要添加点东西,如下哦。

b. 修改一处

在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建 页面 a.html,用于测试。

由于第二个实例中,8082中有了 edu 的文件夹,所以只在8081 文件夹下创建即可。 然后使用在vod文件下使用命令:

cp a.html ../edu/

即可完成, 查看命令

cd ../edu/ # 进入到 edu 目录下
cat a.html #查看内容

c. 测试页面

测试URL

http://208.208.128.122:8081/edu/a.html
http://208.208.128.122:8082/edu/a.html

3. 在 nginx 的配置文件中进行负载均衡的配置

修改了第一个示例的 配置

4. 最终测试

测试url

http://208.208.128.122/edu/a.html

5. nginx 分配服务器策略

随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题, 顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应 足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品, 很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服 务,而且 Nginx 提供了几种分配方式(策略):

a. 轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。 配置方式:

b. weight

weight 代表权重, 默认为 1,权重越高被分配的客户端越多

 upstream myserver {
 server 208.208.128.122:8081 weight=10; # 在这儿
 server 208.208.128.122:8082 weight=10;
 }
 server {
 listen 80;
 server_name 208.208.128.122;
 location / {
 root html;
 proxy_pass http://myserver;
 index index.html index.htm;
 }

c. ip_hash

ip_hash 每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器

 upstream myserver {
 	ip_hash;							// 在这儿
 server 208.208.128.122:8081 ;
 server 208.208.128.122:8082 ;
 }
 server {
 listen 80;
 server_name 208.208.128.122;
 location / {
 root html;
 proxy_pass http://myserver;
 index index.html index.htm;
 }

d. fair(第三方)

fair(第三方),按后端服务器的响应时间来分配请求,响应时间短的优先分配。

 upstream myserver {					
 server 208.208.128.122:8081 ;
 server 208.208.128.122:8082 ;
 fair; 														# 在这儿
 }
 server {
 listen 80;
 server_name 208.208.128.122;
 location / {
 root html;
 proxy_pass http://myserver;
 index index.html index.htm;
 }

本文分享自微信公众号 - IT大咖说(itdakashuo),作者:编程资源库

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2019-12-07

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • Nginx反向代理、动静分离和负载均衡

    Nginx通常被用作后端服务器的反向代理,这样就可以很方便的实现动静分离,以及负载均衡,从而大大提高服务器的处理能力。

    IT大咖说
  • 干货 | 链家网架构师程天亮:Spring Boot在链家网实践

    嘉宾演讲视频 Guest Video ? 温馨提示 本视频时长30分28秒,建议在wifi下观看 Spring Cloud中国社区上海站的沙龙活动刚刚圆满落幕,...

    IT大咖说
  • 前端如何做大量的数据校验?json schema配置详解

    这篇文章主要介绍如何使用json schema,如果你已经对它很熟悉了,可以不用继续往下看了,节约时间。

    IT大咖说
  • Redis主从复制原理总结

    和Mysql主从复制的原因一样,Redis虽然读取写入的速度都特别快,但是也会产生读压力特别大的情况。为了分担读压力,Redis支持主从复制,Redis的主从结...

    HUC思梦
  • 运用双腾讯云搭建《饥荒》多人联机服务器

    《饥荒》是由Klei Entertainment开发的一款动作冒险类求生沙盒游戏,是目前较火的一个独立游戏。多人联机服务器让你和你的小伙伴可以合作,共同在沙盒世...

    云加社区
  • 服务器租用、服务器托管、云服务器哪个好?

    服务器租用、服务器托管、云服务器代表了云计算公司对企业客户提供的三种不同模式的服务——物理云,托管云和公有云。云计算虽然技术门槛比较高,对于非专业人士比较神秘。...

    企鹅号小编
  • Java面试手册:J2EE

    8、在weblogic管理制台中对一个应用域(或者说是一个网站,Domain)进行jms及ejb或连接池等相关信息进行配置后,实际保存在什么文件中?

    南风
  • 从摩拜总是出现服务故障谈谈技术这件小事

    最近几天不知道怎么了,摩拜单车总是出现故障。 不是扫不了码就是关闭自行车时,车已经锁了,但是app上显示的还是使用中,也就是在关闭锁的一瞬间刚刚好服务器出问题了...

    猿天地
  • 云服务器的优势在哪里?

    现在企业会跟随时代的发展来更新换代企业设备等,服务器对于很多互联网企业来说,投入大而且需要更新也更为小心谨慎。

    云计算爱好者
  • 你的服务器安全么?--服务器防渗透(1)

    服务器防渗透(1)--信息收集 你的服务器安全么? 1   概述 在本人所处的公司的服务器正式遭到黑客攻击之前,一直都以为 黑客 是个遥不可及的词,直到真正成为...

    用户1170933

扫码关注云+社区

领取腾讯云代金券