大型系统演进之路-负载均衡演进

Nginx做负载均衡

通过Nginx的反向代理将请求分发到tomcat中,如果tomcat支持100并发,Nginx支持50000并发,理论上nginx把请求发送到500个tomcat就可以了。

LVS或F5做多个Nginx负载均衡

Tomcat和数据库都可以水平扩展之后,单机的Nginx会成为瓶颈。

LVS和H5解决网络四层负载均衡,性能高于七层的Nginx,单机LVS可支持几十万并发请求转发,F5是硬件负载均衡,性能比LVS高,但是价格昂贵。

为解决LVS服务高可用,可以采用主备方式解决可用性,使用keepalived模拟虚拟IP,然后把虚拟IO绑定到多个LVS机器上,访问虚拟IP时,请求会被路由到真实到LVS服务器上,当主LVS宕机时,keepalived会自动更新路由策略,把虚拟IP重定向到另一台正常到LVS服务器上,达到LVS服务高可用。

一般几个Nginx下面是一部分tomcat,Nginx之间通过keepalived实现高可用。

DNS轮询实现多机房负载均衡

LVS是单机的,当并发数增加到几十万时,LVS服务器变成了瓶颈,用于用户较多,请求分布在不同地区,导致访问同一个机房存在跨地域延迟。

DNS服务配置一个域名对应多个IP地址,每个IP对应不同机房虚拟IP,通过DNS实现了机房间的负载均衡,实现了机房级别的水平扩展。

微服务拆分

按照业务拆分代码,使单个应用指责清晰,可以独立升级迭代,同时由于不同应用之间存在共用模块,导致升级迭代过程不自由。

于是抽象出通用业务中台,用户,订单,支付,鉴权等作为单独服务进行治理,服务之间通过http,rpc进行通信,服务之间需要做服务治理,限流,熔断,降级等工作,提高系统稳定性和可用性。


原文发布于微信公众号 - 春哥叨叨(chungedaodao)

原文发表时间:2019-06-18

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券