安装环境:4台Linux机,系统为CentOS 7.7。 Nginx版本:1.12.0
ip | 作用 |
---|---|
172.16.122.101 | 部署Nginx,代理真实服务器1、2、3 |
172.16.122.104 | 真实服务器1,已经部署应用,并对外暴露http端口10900 |
172.16.122.105 | 真实服务器2,已经部署应用,并对外暴露http端口10900 |
172.16.122.106 | 真实服务器3,已经部署应用,并对外暴露http端口10900 |
安装Nginx
需要先将官网下载的源码进行编译,编译依赖gcc
环境,如果没有gcc
环境,则需要安装:
PCRE(Perl Compatible Regular Expressions)
是一个Perl
库,包括perl
兼容的正则表达式库。Nginx
的http模块使用pcre
来解析正则表达式,所以需要在linux
上安装 pcre
库,pcre-devel
是使用pcre
开发的一个二次开发库。Nginx
也需要此库。命令:
zlib
库提供了很多种压缩和解压缩的方式,Nginx
使用zlib
对http
包的内容进行gzip
,所以需要在Centos
上安装zlib
库。
OpenSSL
是一个强大的安全套接字层密码库,囊括主要的密码算法、常用的密钥和证书封装管理功能及SSL
协议,并提供丰富的应用程序供测试或其它目的使用。
Nginx
不仅支持http
协议,还支持https
(即在ssl协议上传输http),所以需要在Centos
安装OpenSSL
库。
下载地址:http://nginx.org/download/
选择一个版本进行下载,这里我用的是nginx-1.12.0.zip
版本。
将下载的安装包上传至服务器。
编译:
/usr/local/nginx
。查看验证:
结果:
至此,Nginx
安装已经完成。
浏览器访问http://172.16.122.101/
,可以看到如下页面。
当Nginx
的配置文件nginx.conf
修改后,要想让配置生效需要重启Nginx
,使用-s reload
不用先停止Nginx
再启动Nginx
即可将配置信息在Nginx
中生效,如下:
修改nginx/conf/nginx.conf
文件,在http{...}
配置块中新增配置:
Nginx
本地监听11000
端口,然后转发到upstream
中配置的后台服务器地址,默认是轮询策略。
当然这是最简单的配置,这里location
定义的准入url
规则是所有都接入,也可以缩小准入的url
范围,比如定义location /api {...}
,就只能接入url
后缀是/api
开头的请求;Nginx
的url
匹配和转发规则非常灵活,可以做到改写要转发的url
路径,还可以使用正则表达式。
upstream
的配置这里使用了默认的策略,如果需要自定义做一些配置可以参考后面的章节内容。
用postman
调用http://172.16.122.101:11000/xxx
,Nginx
会将请求转发到对应的后端真实服务器http://172.16.122.104~6:10900/xxx
,多次调用可以看到是轮询的效果。
1.11.5
以上)max_fails
次失败后,暂停的时间,默认为10s。backup
机器down
或者忙的时候,请求backup
机器。所以这台机器压力会最轻。down
掉了,会自动剔除该服务器。least_conn
和ip_hash
结合使用。每个请求按访问IP的hash结果分配,这样来自同一个IP的访客固定访问一个后端服务器,有效解决了动态网页存在的session
共享问题。
Nginx
版本1.3.1
之前,不能在ip_hash
中使用权重(weight
)。ip_hash
不能与backup
同时使用。session
。down
掉。把请求转发给连接数较少的后端服务器。轮询算法是把请求平均的转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较高。这种情况下,least_conn
这种方式就可以达到更好的负载均衡效果。
这是比上面两个更加智能的负载均衡算法。此种算法可以依据页面大小和加载时间长短智能地进行负载均衡,也就是根据后端服务器的响应时间来分配请求,响应时间短的优先分配。Nginx
本身是不支持fair
的,如果需要使用这种调度算法,必须下载Nginx
的upstream_fair
模块。
按访问url
的hash
结果来分配请求,使每个url
定向到同一个后端服务器,要配合缓存命中来使用。同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash
,可以使得同一个url
(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再次收到请求,就可以从缓存中读取。