公司内部的业务系统有近千个,基本上很少有比较孤立的;尤其外部系统,即便用户在页面上一个很普通的操作,后台也需要少则几个多则几十个服务协同完成。以前我们定位调用链上的问题方式,基本上都是叫上调用链上所有对服务比较熟悉的技术人员,定位问题费时费力;由此,我们团队决定引入一套全链路跟踪中间件产品。
起初,我们全面调研了社区很多比较成熟的产品之后,发现这些产品与我们公司现存场景多有不符的地方,主要的一点就是我们公司内部应用之间通信方式的多样化。各业务部门之间技术栈极不统一,各业务部门内部的应用之间以及各业务部门应用之间的通信方式自然也多种多样,公开服务的方式包括:REST、RabbitMQ、Dubbo、RMI、Zookeeper等,调用服务的方式包括:OkHttp 2.x、OkHttp 3.x 、Apache HttpClient、Spring RestTemplate、RabbitMQ、Dubbo、RMI、Zookeeper等。我们在自研这套产品过程中,首先参考了谷歌公开的《Dapper大规模分布式系统的跟踪系统》这篇论文,借鉴了社区类似产品的很多思路和理念,像Twitter的Zipkin、阿里的鹰眼、去哪儿网的QTracer、GitHub上开源的PinPoint等产品。
一. 设计目标
设计目标是企业的设计部门根据设计战略的要求组织各项设计活动预期取得的成果。在产品设计之初,我们就参考了谷歌公开的《Dapper大规模分布式系统的跟踪系统》论文及我们的实际业务场景,制定了如下设计目标:
二. 产品架构
Trace Agent:各业务服务内部的埋点,其中包括各种通信方式的参数传递、配置模块、接入模块等,最终将调用链节点数据以日志形式落地;
Filebeat:采集Trace agent产生的调用链节点日志并送给Logstash;
Logstash:对跟踪日志进行再处理,像属性提取并结构化后输出到ElasticSearch;
ElasticSearch:调用链节点日志的最终存储地,每个节点日志以行为单位进行存储;
Trace Web UI:数据展现页分为四部分,调用链TraceId列表、调用链列表、依赖分析图(基于百度的Echarts)、节点详情页,如下:
三. 追本溯源
全链路跟踪中间件产品要解决的第一个非常重要的问题就是调用链源头的追溯,随着对产品的理解逐渐加深,关于调用链源头我们梳理出两点,一是人为调用(触发页面上某事件),二是系统定时调用(定时任务触发):
四. 传递之道
全链路跟踪中间件产品要解决的第二个非常重要的问题就是调用链参数(traceId和父spanId)向下游服务传递。在调用下游服务时,有些调用是不需要跟踪的,比如调用Kubernetes的REST接口、ES的REST接口,所以我们设计了三级开关处理:机器级开关(跳掉某个IP的跟踪)、应用级开关(跳掉某个应用的跟踪)、接口级开关(跳掉应用内某个接口的跟踪)。各种通信方式调用链参数传递逻辑如下:
五. 落地之机
全链路跟踪中间件产品要解决的第三个非常重要的问题就是调用链节点日志的落地时机,客户端在某个调用的点进行落地(防止多点重复落地),而服务端在响应点逻辑执行完进行落地。各种通信方式调用链节点日志落地逻辑如下:
六. 改造之旅
在产品设计之初,我们就将“低侵入”作为一个明确的设计目标,产品最终做到了隐式侵入,也就是在产品上线之后,要求业务系统重新发布即可,无需任何业务代码上的改动(OkHttp3、Apache HttpClient、Dubbo使用方式需调整)。
Q&A
Q:这种链路追踪好像没有深入到访问数据库层,以及某个方法执行的时间和方法内部之间调用的关系吧?另外在Web上是怎么展示链路的呢?我看到有SpanId、TraceId这些都是写到log,然后用ES查询出来,再根据时间判断整个链路条,再显示在Web页面么?
A:暂时没有到数据访问层,后期我们会考虑加进去的;Web上的展示分享的内容里面有,我们是基于百度的Echarts;ES存储的数据是一个节点一条数据,然后将查出来的数据构造成多叉树使用百度的Echarts进行数据展现。
Q:TraceId生成算法,如何避免重复?
A:TraceId的生成我们融入了业务语义,业务描述部分+System.nanoTimes,业务语义部分存储在ZK中,是动态可配置的。
Q:会不会将历史数据也查出来?有区分么?
A:TraceId列表是按环境、应用、TraceId模糊查询、接口名、时间段查出来的。