gossip:互相之间不断通信,保持整个集群所有节点的数据是完整的
而集中式是将集群元数据(节点信息,故障,等等)集中存储在某个节点上;
经典的集中式中间件 zookeeper
他们基本上都用于维护集群的元数据
集中式:
gossip:
可见 集中式 与 gossip 的优缺点是相互的。
gossip 的延迟在我们上一章节中迁移 slots 时(reshard),去做另外一个操作,会发现 configuration error,需要等待一会才能达成一致,配置数据才能同步成功
每个节点都有一个专门用于节点间通信的端口,就是自己提供服务的端口号 + 10000,比如 7001,那么用于节点间通信的就是 17001 端口
每个节点每隔一段时间都会往另外几个节点发送 ping 消息,同时其他几点接收到 ping 之后返回 pong
交换的信息有:故障信息、节点的增加和移除、hash slot 信息,等等
gossip 协议包含多种消息,包括 ping、pong、meet、fail,等等
ping 很频繁,而且要携带一些元数据,所以可能会加重网络负担
每个节点每秒会执行 10 次 ping,每次会选择 5 个最久没有通信的其他节点
当然如果发现某个节点通信延时达到了 cluster_node_timeout / 2,那么立即发送 ping,避免数据交换延时过长,落后的时间太长了
比如说,两个节点之间都 10 分钟没有交换数据了,那么整个集群处于严重的元数据不一致的情况,就会有问题
所以 cluster_node_timeout 可以调节,如果调节比较大,那么会降低发送的频率
每次 ping,一个是带上自己节点的信息,还有就是带上 1/10 其他节点的信息,发送出去,进行数据交换
至少包含 3 个其他节点的信息,最多包含总节点 -2 个其他节点的信息
后面会使用 jedis,它是 redis 的 java client 客户端,支持 redis cluster
这里会讲解 jedis cluster api 与 redis cluster 集群交互的一些基本原理
redis-cli -c,可以提供自动重定的功能,那么对于 jedis 来说,下面是他的实现原理
客户端可能会挑选任意一个 redis 实例去发送命令,每个 redis 实例接收到命令,都会计算 key 对应的 hash slot
如果在本地就在本地处理,否则返回 moved 给客户端,让客户端进行重定向
cluster keyslot mykey,可以查看一个 key 对应的 hash slot 是什么
Copy
[root@eshop-cache01 ~]# redis-cli -h 192.168.99.170 -p 7001
192.168.99.170:7001> cluster keyslot myke1
(integer) 12435
192.168.99.170:7001> cluster keyslot myke2
(integer) 240
用 redis-cli 的时候,可以加入 -c 参数,支持自动的请求重定向,redis-cli 接收到 moved 之后,会自动重定向到对应的节点执行命令
但是这样会有一个问题,可能会出现大部分命令都会接受到 moved 响应,也就是说可能一次写入会有两次请求,这个就很浪费性能
计算 hash slot 的算法,就是根据 key 计算 CRC16 值,然后对 16384 取模,拿到对应的 hash slot
用 hash tag 可以手动指定 key 对应的 slot,同一个 hash tag 下的 key,都会在一个 hash slot 中,比如 set mykey1:{100} 和 set mykey2:{100}
Copy
192.168.99.170:7001> set mykey1:{100} 1
OK
192.168.99.170:7001> set mykey2:{100} 2
OK
192.168.99.170:7001> set mykey1 1
OK
192.168.99.170:7001> set mykey2 2
(error) MOVED 14119 192.168.99.172:7005
192.168.99.170:7001> get mykey2
(error) MOVED 14119 192.168.99.172:7005
192.168.99.170:7001> get mykey2:{100}
"2"
可以看到,这个 tag 相当于你手动指定这个 key 路由到哪一个 solt 上去,那么只要手动了,以后查询也需要手动指定才行,所以这里需要先计算出 hash slot 的值,相当于在 redis 服务端的工作挪动到客户端来做了,这样减少了大量的 moved 请求
节点间通过 gossip 协议进行数据交换,就知道每个 hash slot 在哪个节点上
基于重定向的客户端,很消耗网络 IO,因为大部分情况下,可能都会出现一次请求重定向,才能找到正确的节点
所以大部分的客户端,比如 java redis 客户端(jedis),就是 smart 的
本地维护一份 hashslot -> node 的映射表,缓存起来,大部分情况下,直接走本地缓存就可以找到 hashslot -> node,不需要通过节点进行 moved 重定向
重复上面几个步骤,直到找到对应的节点,如果重试超过 5 次,那么就报错 JedisClusterMaxRedirectionException
jedis 老版本,可能会出现在集群某个节点故障还没完成自动切换恢复时,频繁更新 hash slot,频繁 ping 节点检查活跃,导致大量网络 IO 开销
jedis 最新版本,对于这些过度的 hash slot 更新和 ping,都进行了优化,避免了类似问题
如果 hash slot 正在迁移,那么会返回 ask 重定向给 jedis
jedis 接收到 ask 重定向之后,会重新定位到目标节点去执行,但是因为 ask 发生在 hash slot 迁移过程中,所以 JedisCluster API 收到 ask 是不会更新 hashslot 本地缓存
已经可以确定 hashslot 已经迁移完了,访问会返回 moved, 那么是会更新本地 hashslot->node 映射表缓存的
redis cluster 的高可用的原理,几乎跟哨兵是类似的
整个流程跟哨兵相比,非常类似,所以说,redis cluster 功能强大,直接集成了 replication 和 sentinal 的功能
没有办法去给大家深入讲解 redis 底层的设计的细节,核心原理和设计的细节,那个除非单独开一门课,redis 底层原理深度剖析,redis 源码
对于咱们这个架构课来说,主要关注的是架构,不是底层的细节,对于架构来说,核心的原理的基本思路,是要梳理清晰的