Eureka 作为注册中心,保存了系统服务的相关信息,如果注册中心挂掉,那么系统就瘫痪了。因此,对 Eureka 做集群实现高可用是必不可少的。
本次测试使用一台机器部署 Eureka 集群,通过名字和端口区分不同的 eureka 服务。 Eureka 名称 端口号 eureka01 9001 eureka02 9002 由于使用一台机器,使用两个名称还需要修改 C:\Windows\System32\drivers\etc 下的 host 文件,添加如下配置:
127.0.0.1 eureka01
127.0.0.1 eureka02
application.yml 文件需要进行如下修改:
server:
port: 9001
eureka:
instance:
hostname: eureka01 # eureka 实例名称
client:
register-with-eureka: false # 不向注册中心注册自己
fetch-registry: false # 表示自己就是注册中心
service-url:
defaultZone: http://eureka01:9001/eureka/,http://eureka02:9002/eureka/
两个 eureka 服务实例的配置文件修改方式类似,将名称和端口进行修改即可。 服务注册的项目中,将 eureka.client.service-url.defaultZone 改成集群的 url 即可。 启动效果如下图:
Eureka 与 Zookeeper 的区别 两者都可以充当注册中心的角色,且可以集群实现高可用,相当于小型的分布式存储系统。
CAP 分别为 consistency(强一致性)、availability(可用性) 和 partition toleranc(分区容错性)。
理论核心:一个分布式系统不可能同时很好的满足一致性、可用性和分区容错性这三个需求。因此,根据 CAP 原理将 NoSQL 数据库分成满足 CA 原则、满足 CP 原则和满足 AP 原则三大类: CA:单点集群,满足一致性,可用性的系统,通常在可扩展性上不高 CP: 满足一致性,分区容错性的系统,通常性能不是特别高 AP: 满足可用性,分区容错性的系统,通过对一致性要求较低 简单的说:CAP 理论描述在分布式存储系统中,最多只能满足两个需求。
当向注册中心查询服务列表时,我们可以容忍注册中心返回的是几分钟前的注册信息,但不能接受服务直接挂掉不可用了。因此,服务注册中心对可用性的要求高于一致性。
但是,zookeeper 会出现一种情况,当 master 节点因为网络故障与其他节点失去联系时,剩余节点会重新进行 leader 选举。问题在于,选举 leader 的时间较长,30 ~ 120 秒,且选举期间整个 zookeeper 集群是不可用的,这期间会导致注册服务瘫痪。在云部署的环境下,因网络问题导致 zookeeper 集群失去 master 节点的概率较大,虽然服务能最终恢复,但是漫长的选举时间导致注册服务长期不可用是不能容忍的。
Eureka 在设计上优先保证了可用性。EurekaServer 各个节点都是平等的,几个节点挂掉不会影响正常节点的工作,剩余的节点依然可以提供注册和发现服务。
而 Eureka 客户端在向某个 EurekaServer 注册或发现连接失败时,会自动切换到其他 EurekaServer 节点,只要有一台 EurekaServer 正常运行,就能保证注册服务可用,只不过查询到的信息可能不是最新的。
除此之外,EurekaServer 还有一种自我保护机制,如果在 15 分钟内超过 85% 的节点都没有正常的心跳,那么 EurekaServer 将认为客户端与注册中心出现网络故障,此时会出现一下几种情况:
EurekaServer 不再从注册列表中移除因为长时间没有收到心跳而应该过期的服务
EurekaServer 仍然能够接收新服务的注册和查询请求,但不会被同步到其他节点上
当网络稳定时,当前 EurekaServer 节点新的注册信息会同步到其他节点中 因此,Eureka 可以很好的应对因网络故障导致部分节点失去联系的情况,而不会向 Zookeeper 那样是整个注册服务瘫痪。 源码下载