支撑百度搜索引擎99.995%可靠名字服务架构设计

摘要

百度搜索引擎是全球最大的中文搜索引擎,致力于向人们提供"简单,可依赖"的信息获取方式。百度网页搜索部架构师郑然为我们分享支撑百度搜索引擎的可靠名字服务架构设计。

视频内容

搜索引擎的挑战

机器数量多,服务数量大:我们有数万台服务器,数十万个服务,分布在多个IDC。

服务变更多,变更数据大:每天几十万次变更,每周10P量级的文件更新,千余人并行开发上百个模块。

检索流量大,稳定性要高:每秒数万次请求,满足99.995%的可用性,极短时间的故障都可能引发大量的拒绝。

服务发现的原理

什么是服务发现

服务上游如何找到下游;服务上游如何负载均衡;下游挂了上游如何感知。

客户端服务发现

所有服务下游自行向服务注册表中进行注册,同时服务上游集成注册表的客户端,查询注册表以获取服务下游列表。服务上游集成负载均衡器,实施负载均衡。

服务端服务发现

服务端服务发现和客户端服务发现的区别就在于,服务端服务发现所有服务上游的请求都是通过网关去查询。

服务发现组件

服务发现主要由服务注册表、注册表客户端和负载均衡组成。

服务注册表是分布式的存储,持久化服务地址和自定义属性,服务名字全局唯一。

注册表客户端支持对注册表的增删改查,支持高并发高吞吐,对延迟的要求不太高,读多写少。

负载均衡对于整个服务系统来说是一个不可或缺的组件。它根据负载选择某个服务,剔除和探活故障服务。

关键技术与实践难点

Eden架构蓝图

Eden是百度网页搜索部自行研发的基于百度matrix集群操作系统的PaaS平台。它主要负责服务的部署、扩缩容、故障恢复等一系列服务治理的相关工作。底层是基础设施层,包括监控、故障检测以及matrix集群操作系统。

Eden由三部分组成,第一部分是总控服务,分为InstanceMgr和NamingService。底层有多个agent来执行总控下发的命令。所有的源数据保存在zookeeper上,并提供了命令行、web之类的接口来使用。还有一个机器维修仲裁的组件,根据故障类型、服务状态来决策机器的维修,同时提供了日志的收集分析,和一个仿真的测试平台。

在这之上是job engine层,提供了封装日常服务变更的操作,包括升级、数据的变更、服务扩容、故障实例的迁移等,在这层上做了抽象。

最上面是一些托管的服务,有网页图片搜索服务、度秘服务、和信息流。

服务发现组件

对于一个IDC来说,我们会部署一套NamingService,agent复用的是Eden的agent。

服务发现不可避免的是要支持跨机房的服务发现机制,必须要有跨机房查询的功能,我们就做了一套远程的跨机房查询,上层提供了SDK接口把这些过程封装起来。

为了支持跨机房一定要APP的ID或者名字必须要全局唯一。

技术难点

我觉得一个真正能够在线上稳定运行的服务发现系统必须要解决以下六个问题:

调用时机:谁来向服务注册表注册和注销服务?

健康检查:上游如何感知下游的健康情况?

无损升级:如何无损的进行服务升级?

变更分级:连接关系变更如何分级?

感知变化:上游服务如何感知下游服务列表的变化?

避免单点:如何避免服务注册表局部故障?

调用时机

第一种方式是服务自己,在启动或停止的时候注册或注销自己。这种方式服务的启停对注册表有很强的依赖,服务需要植入SDK,会产生植入成本,容易干扰运维的可预期性,影响过载保护策略。

第二种方式就是采用第三方组件,有一个代理模块去实施服务的注册和注销。我们使用这种方法的时候是利用agent通过SDK去操作。它的优点就是只需在服务添加删除时修改注册表,不用植入SDK,对注册表的依赖很弱,更容易进行运维效果监控,降低注册表的负载。

健康检查

健康检查有服务端健康检查和客户端健康检查两种做法。

服务端健康检查是服务自己做健康检查,把健康结果反馈给服务注册表。但这种方式对注册表的依赖性很强,而且它自己的健康不一定是上游看到的健康,所以结果未必准确,感知周期也很长。

客户端健康检查则是客户端和服务端建立心跳和探活机制。它的优点是对注册表的依赖性弱,感知周期短,准确性更高了。

无损升级

升级就意味着同时重启的数量要比平时更多。对于上游来说,不可访问的服务也比日常要多,这就意味着失败概率会变大。

重试虽然可以在一定程度上解决问题,但重试的副作用大,通常重试的次数会被严格限制。

而健康检查虽然可以探测到不可用的下游服务,但是健康检测存在周期性。

后来我们又有了一个更好的做法::我们采取的方法是下游服务退出过程中,先不会关闭服务读写端口,而仅仅关闭心跳端口,使服务处于"跛脚鸭"状态,等上游检测到下游心跳异常之后,将流量调度到其他服务实例,然后下游服务实例再关闭读写端口退出,从而实现完全可控的无损服务升级。

变更分级

基于分布式锁的个数,控制上游变更的服务,但上游分级方式具有随机性,出错情况损失偏大。

给下游实例打tag,标记是否被上游可见。

其实这种分级方式并不是很好,因为变更连接关系高危变更,一旦错误,损失很大。更好的方法是通过权重来控制下游服务的流量比例。

感知变化

我们在实践中发现zookeeper的通知机制不可靠,对注册表依赖过重,发生局部故障,影响服务可用性。

而轮询是一种比较可靠的机制。由agent周期性轮询服务注册表,引入版本节点,只有版本变化时,才获取全量数据,增强了运维的可预期性。

避免单点

对于IDC来说,它不希望由于服务发现系统局部故障而影响服务。

历史上我们发生过多次zookeeper的局部故障,比如网络抖动导致大量session超时所引起的通知机制。

把这些“不可靠”作为设计思路,我们把上游持久化缓存下游服务列表,作为容灾手段。采用的是轮询机制。

健康检查是通过上游服务探测下游服务健康状态。

应用范围

目前的服务发现系统应用到了万级的服务数量,支持了十万级的服务实例数量,覆盖了百度搜索引擎规模最大的indexer服务,数千个实例扩缩容的索引分布调整,分钟级完成连接变更。

应用案例

相关对策

原有方案无论是ssdb、proxy还是master,都大量应用了对于zk通知的机制,同时还依赖zk的session机制做探活。

这个方案在实际应用中很容易出现网络抖动session超时的故障,zk通知机制也容易丢消息,zk故障会导致服务整体不可用,平均1~2个月就会发生故障。

所以我们把它迁移到了NamingService,以解决上述问题。

总结和思考

总结

使用第三方组件进行注册和注销;

上游探测下游服务健康状态;

通过服务分组实现无损升级;

连接关系变更一定要有分级机制;

使用轮询而不使用通知;

以服务注册不可靠作为假设条件。

思考

我们打算引入类似k8s的endpoint机制;通过控制流量比例更好的实现分级;提升易用性,成为通用的中间件。

以上就是我今天的分享,谢谢大家!

原文发布于微信公众号 - IT大咖说(itdakashuo)

原文发表时间:2017-07-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏IT技术精选文摘

如何实现系统的可扩展性和高可用性

概述 可扩展性,高可用性和性能 可扩展性,高可用性,性能和关键任务这些术语对不同组织或组织内的不同部门来说意味着不同的事情。它们经常被互换,造成混乱,导致管理...

1K100
来自专栏大内老A

.NET Core的依赖注入[1]: 控制反转

写在前面:我之前写过一系列关于.NET Core依赖注入的文章,由于.NET Core依赖注入框架的实现原理发生了很大的改变,加上我对包括IoC和DI这些理论层...

10530
来自专栏杨建荣的学习笔记

初识JMeter

今天在地铁上,一直在琢磨高可用测试的一些补充场景,除了功能之外,就是一些异常场景的考虑,总之,能想到可能发生的任何场景,然后和实际应用场景结合起来,给出...

46490
来自专栏chenssy

阿里P8十年Java架构师是如何规划职业生涯以及架构体系的呢

高可用SpringCloud微服务与docker集成实现动态扩容实战

15130
来自专栏产品成长日志

工具|高效能人士文件管理神器

场景一:使用公司电脑编辑一个文档,到家后使用家用电脑继续编辑,第二天到公司接着修改,如何做效率比较高呢?

27730
来自专栏嵌入式程序猿

这个坑希望你没踩

最近因为一个小项目使用KE02来评估,用的是FRDM-KE02Z的板子,但是在将新买的板子连上电脑后,始终连不上目标板,而电脑可以正常连接其他板子,所以证明驱动...

11920
来自专栏BaronTalk

Android APM 系列一(原理篇)

性能问题是导致 App 用户流失的罪魁祸首之一,如果用户在使用我们 App 的时候遇到诸如页面卡顿、响应速度慢、发热严重、流量电量消耗大等问题的时候,很可能就会...

78450
来自专栏程序你好

开发人员学习微服务架构最容易犯五个的错误

7610
来自专栏EAWorld

即拉即用:你不知道的持续集成的3个Git Hooks详解

作者:Sarah Goff-Dupont 译者:月满西楼 在构建之外添加自动化的手段,是真正用好CI的关键。 如果你已经用了一段时间的Git了,相信你可能听说过...

31840
来自专栏Java架构沉思录

微服务等于Spring Cloud?一文告诉你微服务到底是什么。

首先微服务并没有一个官方的定义,想要直接描述微服务比较困难,我们可以通过对比传统WEB应用,来理解什么是微服务。

10420

扫码关注云+社区

领取腾讯云代金券