本文将介绍全年4个9(99.99%)的系统可用性方案
在系统的高可靠性里有个衡量其可靠性的标准——X个9,这个X是代表数字3~5。X个9表示在系统1年时间的使用过程中,系统可以正常使用时间与总时间(1年)之比
系统可用性的计算公式:A=MTBF/(MTBF+MTTR)
拿365天(1年)做计算吧,看看几个9要停机多久时间做能才能达到!
1年 = 365天 = 8760小时undefined99.9 = 8760 0.1% = 8760 0.001 = 8.76小时undefined99.99 = 8760 0.0001 = 0.876小时 = 0.876 60 = 52.6分钟undefined99.999 = 8760 0.00001 = 0.0876小时 = 0.0876 60 = 5.26分钟
本文设计技术点:
LVS 是 Linux Virtual Server
(Linux 虚拟服务器) 的简称,目前 LVS 已经是 Linux 内核标准的一部分,LVS 工作在网络 4 层之上仅作分发之用,所以抗负载能力比较强。LVS 有完整的双机热备方案,几乎支持对所有应用做负载均衡。LVS 在互联网应用中的位置是在 Nginx 之上
LVS 本身只是一个叫 IP_VS
的内核模块,这个模块可以做负载均衡,但是只用这个模块来做应用负载是远远不够的,比如 LVS 本身宕机后如何处理?实际生产环境中,一般配合 Keepalived
来使用 LVS,keepalived
支持 VRRP
心跳协议,可以实现 LVS 主备冗余,以解决 LVS 本身单点故障。另外,Keepalived 支持健康检测,网络 4 层和 7 层健康检测,防止服务器宕机。
Keepalived作为一个高性能集群软件,它还能实现对集群中服务器运行状态的监控以及故障隔离,下面我们介绍一下Keepalived对服务器运行状态和故障隔离的工作原理。
Keepalived工作在TCP/IP 模型的 三层(网络层)、四层(传输层)、七层(应用层),根据TCP、IP 模型各层所能实现的功能,Keepalived运行机制如下:
VRRP
可以将两台或者多台物理路由器设备虚拟成一个虚拟路由
,这个虚拟路由器通过虚拟IP(一个或者多个)对外提供服务,而在虚拟路由器内部十多个物理路由器协同工作,同一时间只有一台物理路由器对外提供服务,这台物理路由设备被成为:主路由器(Master角色),一般情况下Master是由选举算法产生,它拥有对外服务的虚拟IP,提供各种网络功能,如:ARP请求,ICMP 数据转发等,而且其它的物理路由器不拥有对外的虚拟IP,也不提供对外网络功能,仅仅接收MASTER的VRRP状态心跳信息,这些路由器被统称为BACKUP
的角色”,当主路由器失败时,处于BACKUP
角色的备份路由器将重新进行选举,产生一个新的主路由器进入MASTER
角色,继续提供对外服务,整个切换对用户来说是完全透明的。
缺点:undefined1. 非高可用,web-server挂了整个系统就挂了undefined2. 扩展性差,当吞吐量达到web-server上限时,无法扩容undefined注:单机不涉及负载均衡的问题
假设tomcat的吞吐量是1w次每秒,当系统总吞吐量达到3w时,如何扩容是首先要解决的问题,DNS轮询是一个很容易想到的方案:
优点: 1. 零成本:在DNS-server上多配几个ip即可,功能也不收费 2. 部署简单:多部署几个web-server即可,原系统架构不需要做任何改造 3. 负载均衡:变成了多机,但负载基本是均衡的
缺点: 1. 非高可用:DNS-server只负责域名解析ip,这个ip对应的服务是否可用,DNS-server是不保证的,假设有一个web-server挂了,部分服务会受到影响 2. 扩容非实时:DNS解析有一个生效周期 3. 暴露了太多的外网ip
tomcat的性能较差,但nginx作为反向代理的性能就强多了,假设线上跑到1w,就比tomcat高了10倍,可以利用这个特性来做扩容:
优点: 1. DNS-server不需要动 2. 负载均衡:通过nginx来保证 3. 只暴露一个外网ip,nginx->tomcat之间使用内网访问 4. 扩容实时:nginx内部可控,随时增加web-server随时实时扩容 5. 能够保证站点层的可用性:任何一台tomcat挂了,nginx可以将流量迁移到其他tomcat
缺点: 1. 时延增加+架构更复杂了:中间多加了一个反向代理层 2. 反向代理层成了单点,非高可用:tomcat挂了不影响服务,nginx挂了怎么办?
为了解决高可用的问题,keepalived出场了
优点: 1. 解决了高可用的问题
缺点: 1. 资源利用率只有50% 2. nginx仍然是接入单点,如果接入吞吐量超过的nginx的性能上限怎么办,例如qps达到了50000咧?
nginx毕竟是软件,性能比tomcat好,但总有个上限,超出了上限,还是扛不住。lvs就不一样了,它实施在操作系统层面, 性能比nginx好很多,例如每秒可以抗10w,这样可以利用他们来扩容,常见的架构图如下:
缺点 不管是使用lvs还是f5,这些都是scale up的方案,根本上,lvs/f5还是会有性能上限,假设每秒能处理10w的请求,一天也只能处理80亿的请求(10w秒吞吐量*8w秒),那万一系统的日PV超过80亿怎么办呢?(好吧,没几个公司要考虑这个问题)
水平扩展,是解决性能问题的根本方案,通过加机器扩充性能的方案才具备最好的扩展性。
facebook,google,baidu的PV是不是超过80亿呢,它们的域名只对应一个ip么,终点又是起点,还是得通过DNS轮询来进行扩容:
此时:
这一部分跳过了,微服务集群化部署的相关的文章很多,本文篇幅有限,想了解的朋友请自行查找阅读。
微服务架构中的应用优雅停机主要是指应用实例有计划而平滑(即不产生需要处理的事故)的退出。应用服务器的停机主要分为两类:主动停机和被动停机,而其中主动停机和大部分的被动停机都是可以实现优雅停机。如果应用不做优雅停机,则会带来以下情况:
微服务的优雅升级的目标就是避免以上几种情况,从而避免人工干预的工作量和提升微服务架构的服务高可靠。
优雅停机可以解决以下场景:
优雅停机解决不了以下场景:
Java的优雅停机通常通过注册JDK的ShutdownHook(钩子)来实现,当系统接收到退出指令后,首先标记系统处于退出状态,不再接收新的消息,然后将积压的消息处理完,最后调用资源回收接口将资源销毁,最后各线程退出执行。简单的使用demo案例如下(简单版):
/**
* 优雅停机处理方式
*
* @author lry
**/
public class Main{
/**
* 启动应用
**/
public void start(){
// 第一步:启动应用服务……
// 第二步:注册JDK钩子
Runtime.getRuntime().addShutdownHook(new Thread(new Runnable() {
@Override
public void run() {
System.out.println("The hook running...");
//第三步:调用停机处理
stop();
}
}));
}
/**
* 停止应用
**/
public void stop(){
// 停止应用前停机处理(如:注销服务、标记不接受请求等)
}
}
注:通常优雅退出需要有超时控制机制,如果到达超时时间仍然没有完成退出前的资源回收等操作,则由停机脚本直接调用KILL -9 PID的方式进行强制退出,不然可能会等待很长时间。
可以遵守以下建议规则来设计微服务的优雅停机机制
微服务应用的优雅停机根据其使用者角色的不同,而主要分为两种类型
上图1-6步操作在大多数微服务框架中都已经集成了,无需开发人员自主开发,如果某些采用自研微服务框架的公司没有这方面功能,开发人员可以先行在自己负责的业务系统中编写ShutdownHook来完成相同操作。
如果不支持Nginx动态发现网关,则停机升级切换的过程需要人工接入,稍微费力点,但同样对用用户来说是无法感知到的。
结合接入层的负载均衡高可用与微服务架构的高可用涉及,可以做到任意时间升级而不影响用户体验,不造成生产事故。但还是没实现全自动的流程,因为Nginx不支持动态发现网关并修改配置生效。
社区常用的 upstream 动态更新方案有 4 个
基于以上插件呢,可以略做修改,使其支持nacos/zookeeper/consol/erueka等注册中心的服务发现,定制需要的nginx reload upstream 动态更新模块即可。
技术创作101训练营
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。