首页
学习
活动
专区
工具
TVP
发布

构建高可用服务端

一. 什么是高可用性

服务端,顾名思义就是为用户提供服务的。

停工时间,就是不能向用户提供服务的时间。

高可用,就是系统具有高度可用性,尽量减少停工时间。

停工的原因一般有:

服务器故障。例如服务器宕机,服务器网络出现问题,机房或者机架出现问题等。

访问量急剧上升,导致服务器压力过大。导致访问量急剧上升的原因有:

时间和访问量都可以预见的,例如秒杀活动,售票系统。

时间和访问量都不可以预见的,例如特发性新闻(马航失联的事件)

停工的原因,可以理解为灾难,所以系统的高可用性就是容灾,即应对灾难的能力,系统有较好的容灾能力,也就是即使灾难出现,系统依然可以正常工作。

二. 怎么提升系统的高可用性

1. 机器层面的灾难

例如:

机器宕机(其中一台服务器宕机了)

机房故障(机房被水淹了)

网络异常(电信的某条光纤被挖断了)

从范围了说,有可能是一台机器,也有可能是多台机器(机房或者某个区域,例如广东),甚至全部机器(那就没救了。。)。

思路就是在多台机器上部署服务,即使一台机器出现问题,其他机器依然可以提供服务。当然,比较可靠的是,多台机器最好在不同的机房,不同的地域,但是对应的成本也会上升。

1. 主从方式

主服务负责提供服务,从服务负责监测主服务器的心跳。当主服务出现问题,立刻转换为从服务器提供服务。例如Mysql的主从架构。

2.多机多工方式

在N台机器上面,运行N个服务,通过负载均衡,把请求分发到不同的机器。当其中一台机器出现问题。系统会自动的切换流量,也就是把请求都导流到其他正常的机器上。

2. 业务层面的灾难

例如:

程序出bug了

访问量急剧上升(预计QPS是1k,突然去到1w)

优化思路:

大系统小做。一个大系统,必然会有许多模块,把这些模块切分为多个小服务。例如用户系统,是一个独立的服务,消费系统,是一个独立的服务。每个服务都提供访问的API,给其他服务访问。缺点是服务与服务之间的通讯成本增加,开发成本也会增加,因为要开发API。但是好处是:

必要的时候,这些API可以提供给外部

符合高内聚低耦合的原则

当某个服务压力上升时,或者服务出现bug时,其他不依赖于问题服务的服务,依然可以正常工作。例如消费服务出现问题,但是聊天服务可以依然可以正常工作。

有损服务。让服务延迟执行,以保证核心需求得到很好的处理。例如微信抢红包,核心需求是立刻知道抢红包的结果,所以服务端先返回抢红包的结果,而用户对是否即时入账并不关心,所以,把入账这个过程,放在异步队列里面做。

柔性可用。在正常服务和停工之间增加一个状态:部分可用。当压力上来的时候,可以停止某些非必要服务,以保证必要服务可以正常运行。又例如遇到bug的时候,短时间内不能立刻修复,而且出bug的业务又是非必要业务,可以先停止bug的业务,当然,这些要事先跟产品方商量好。

快速拒绝(过载保护)。检查当前系统的负载请求,如果负载过高,立刻返回等待提示,例如:。否则,用户会不断重试,让已经负载很高的系统雪上加霜。在客户端,要限制重试的频率,例如30s后才能重试,或者没有收到服务端的返回前,不能再次提交请求。也可以在Nginx层加入限制,同一IP1秒内不能发送多于N个请求,多于的就快速拒绝,防止被攻击。

3. 验证高可用

当我们采用了各种措施来提升系统的容灾能力后,怎么测试我们的措施是否有用呢?

模拟客户端低网速。这个可以通过Fiddler来模拟

模拟服务端丢包。可以使用netern和tc

使用ab进行压测。

模拟服务器宕机,可以直接断开服务器网络来模拟

三、应用

应用一般都是针对上面的机器问题导致的机器层面的灾难,因为业务层面的,一般是在代码开发阶段考虑的。

高可用可以分为两个关键点:

多节点

自动切换流量

多节点,也就是要部署多个节点,无论其他节点是挂起状态(主从),还是工作昨天(多机多工)。

当有了多节点后,还是不够的,因为当灾难来临的话,如果要人工去切换流量,必然要花费较长时间,所以需要有自动切换流量的机制。

自动切换流量的另一个功能就是,当损坏的节点恢复后,流量又会自动得切回去。

四、HTTP的应用

常用的服务端架构,一般是这样:

客户端从DNS服务器获取服务器的IP

客户端发起请求,请求先到Nginx层

Nginx层分发请求到服务层

如果需要,服务层会请求上游的服务层,例如向用户系统获取用户数据。一般会已通过HTTP来实现。

如果需要,服务层会访问缓存层,获取数据

如果需要,服务层会访问数据库层,获取数据

1. 客户端层到Nginx层

会部署多个Nginx层,DNS服务器中部署多个IP,这样DNS服务器会把流量均匀地分到多个Nginx。

缺点是:

不能自动切换流量。当其中一台Nginx不可用了,DNS服务器并不知道,所以不会自动切换流量

2. Nginx到服务层

Nginx里面可以配置多个服务层。

Nginx有监听服务层是否可用的机制(upstream),所以可以实现自动切换流量

nginx配置

配置一个upstream,gunicorn_pool。里面有两个服务层(130和137)

如果两个服务层都正常,Nginx会把流量根据weight值,导流到两个服务器。

同一个请求中,如果nginx导流到server1,发现返回的是错误响应(例如502),nginx会把请求再发送server2,相当于重试。这时会记录server1的fail次数+1

如果再fail_timeout时间内,server1的fail次数超过max_fails,在fail_timeout时间内,nginx就不会再把其他请求导流到server1了。

上面的机制,就可以实现自动的流量切换。当然也有负载均衡的功能,这个就是高并发的范畴了。

3. 服务层到上游服务器

DNS服务器。使用DNS服务器把流量均分到上游服务层。缺点也是不能自动切换流量

RPC-client。在服务器的机器中,部署一个RPC-client,一般的实现方案是启动一个Nginx,利用Nginx的upstream功能来分发流量,同时可以实现自动流量切换。服务层到上游服务层的请求,会先发到RPC-client,然后再到上游服务层,相当于加了一个HTTP代理。

4.服务层到缓存层

常用的缓存有redis和mongodb

1.redis

主从架构

哨兵架构

集群架构

redis cluster

2.mongo

主从架构

副本集架构

分片

mongo HA

5.服务层到数据库层

常用的数据库就是Mysql了。

一主多从(主从复制)

二主多从(主主复制)

五、TCP的应用

1. DNS方法

配置DNS服务器,一个域名,对应多个IP。

缺点是不能实现流量自动切换,例如S1挂了,DNS还是会返回S1的iP给客户端。客户端可能要重试几次,才会拿到其他Server的IP,才能实现连接。

2.get-ip接口

由于TCP是长连接,所以获取IP的请求是很少的,所以可以自己写一个接口,客户端通过接口来获取TCP Server的IP地址。

这样接口里面就可以做到自动切换流量了。例如A机器已经挂了,就不会返回A机器的IP了。

TCP Server可以把自身的状态在Redis,然后接口那边就可以获取TCP Server的状态了

也可以TCP Server提供一个http接口,返回自身的状态,供get-ip接口那边调用。

Java架构师学习公众号!

一个专注分享架构干货的微信公众号

觉得本文有用就把文章分享给更多的人看到吧!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180525A081MG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券