浏览器地址栏输入http://192.168.159.33/edu/a.html
,负载均衡效果,平均8080和8081端口中
(1)准备两台tomcat服务器,一台8080端口,另一台8081端口。
(2)在两台tomcat里面的webapps目录中,创建名为edu文件夹,在edu文件夹中创建页面a.html用于测试 8080: a.html:
<h1>8080!</h1>
8081: a.html:
<h1>8081!</h1>
只列出部分
upstream myserver{
server 192.168.159.33:8080;
server 192.168.159.33:8081;
}
server {
listen 80;
server_name 192.168.159.33;
#charset koi8-r;
#access_log logs/host.access.log main;
location / {
root html;
proxy_pass http://myserver;
index index.html index.htm;
}
测试
随着不断地刷新,页面的内容也在8080和8081不断地切换,因为默认地负载均衡策略是轮询,分别请求8080端口和8081端口。
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器宕机,能自动剔除。
weight代表权重,默认为1,权重越高被分配的客户端越多
例如
upstream myserver{
server 192.168.159.33:8080 weight=5;
server 192.168.159.33:8081 weight=10;
}
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。例如
upstream myserver{
ip_hash;
server 192.168.159.33:8080;
server 192.168.159.33:8081;
}
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream myserver{
server 192.168.159.33:8080;
server 192.168.159.33:8081;
fair;
}