华尔街见闻:基于腾讯云容器服务的微服务架构实践

一.简介

华尔街见闻的运营方上海阿牛信息科技有限公司是全球金融信息服务提供商,每天全平台为近200万用户提供资讯、数据、研究等服务。旗舰产品华尔街见闻 APP 长期位居各应用市场财经资讯类客户端第1位。由于将重大事件、市场的基本面变化和100多种全球资产价格紧密关联,在金融领域具有极高渗透率。首创的7x24快讯模式已经成为在中文世界理解全球市场的最快来源。也因此,该产品有技术架构复杂,需要高并发承载能力等特性。

二.背景

  • 老系统日益臃肿 原先的系统是PHP monolithic架构,功能按模块划分,日积月累,最后模块达到60+个,新人接手项目会拿到一整个系统的代码,以及需要整个系统的配置,而他可能只需要专注开发不到1/10的业务。
  • 伸缩性 我们的主要业务是即时资讯,资讯具有时效性,网站的访问量会呈现锯齿形分布。当遇到特大新闻如英国退欧、美国大选、法国大选等,我们要能弹性地通过增加服务资源,提高服务的容量。
  • 容错性 我们希望一个低优先级服务出现问题之后,不影响主要服务;一个主要服务能保证更高的可用性,就算出现问题,也要保证优雅降级。 比如在重大事件发生的时候,我们希望文章 API 保证不会受到影响。
  • 单体应用 PHP单体应用在生产环境服务的时候,所有业务都跑在一个程序里,增加了系统的脆弱性,一个隐藏的性能问题,能在服务量激增的时候成为压垮骆驼的一根稻草。
  • 云服务商成本 由于架构落后于需要,我们不得不用硬件弥补性能上的问题,导致云服务器成本不断增加。
  • 线上运维 由于没有方便的监控和运维工具,导致排查问题的效率低,使得在系统遇到问题的时候排查困难,耗时过长。
  • 开发新功能 开发新任务的同时,我们需要修复原有系统的性能问题。 PHP monolithic 架构图

每台服务器部署相同的服务端PHP代码,由PHP-fpm解释执行,通过Nginx进行反向代理。

三.华尔街见闻微服务架构设计

因此,在2016年11月至2017年3月,我们采用微服务架构启动重构,尝试解决一部分上述问题,在伸缩性上能以服务为单位进行拓容,同时,这一设计会在某些方面增大我们的开发成本和运维成本。

  • 错误排查复杂 很显然,以前在单体应用中能直接登录服务器,查看出错日志,现在错误散落在不同的服务中,为我们的错误排查带来了困难。
  • 日志源增加 如何把服务的日志收集并分析。
  • 基础设施增加 每个服务有互相独立的 MySQL 、Redis ,公共服务方面需要高可用的服务发现,调用链路分析,日志收集储存设施等。

1.技术选型

微服务架构图

每台服务器上均衡地部署服务,LB 接受用户的请求,将请求转发到API gatewayAPI gateway向服务发现查询具体服务的IP和端口,服务执行完业务逻辑后向上返回数据。

2.服务框架

我们选择golang作为我们的后端开发语言。

  • golang在性能和开发效率上有很好的平衡,语法上很简单,并发编程简单高效,基础库健全。
  • 调试工具强大 自带一些pprof包可以 profile 当前程序的 CPU 消耗、内存占用、锁状态、channel阻塞等,非常便利我们定位问题。
  • 有一些优秀的微服务框架 我们选用go-micro作为开发框架,里面包含几乎所有微服务组件,并且支持非常好的拓展性,通过接口的设计方式,让我们可以拓展一些自己的组件,如服务发现、传输协议等。
  • golang在华尔街见闻已经有过比较多的应用,工程师使用golang开发几乎0学习成本。

3.服务拆分

拆分的原则是通过服务功能划分,尽量避免双向依赖。经过拆分我们目前有13个服务,包括用户、内容、实时新闻、评论、搜索、商城、支付、三方代理等服务。

4.服务间通信

服务间使用protobuf协议对数据进行编码,使用UDP作为传输协议。

5.服务发现

Etcd 搭建多节点高可用的服务发现。

6.服务保护

我们选择Hystrix作为服务保护以及服务降级的方案。

每个服务开发者,需要定义自己服务接口的并发量、超时时间以及 fallback 方法。

7.部署方案

我们选择了Kubernetes

  • Docker Swarm 这是我们最先选择的方案,因为Docker 1.12之后已经将Swarm功能集成到Docker Engine,能以最少的配置启动Docker集群。经过简化和设计的控制台API,方便地管理集群、调整服务如控制服务的数量、CPU、内存限制等。往集群内加入机器非常简单,只需要运行一条命令即可。使用manager-worker架构,manager作为调度节点,支持高可用。 但遇到了非常致命的问题,比如频繁更新服务的时候会出现服务访问不到,某服务的负载均衡后挂载的服务IP是其它服务的,服务之间的通信有几率出现超时问题,归根结底,还是社区正在不断完善 swarm,有很多不稳定的地方,网络方面没有进行优化。
  • Kubernetes 这是谷歌主导的服务编排工具,它支持Docker,相比Docker Swarm来说,它的概念更多,分层更细。功能方面多于Docker Swarm,支持一些高级功能如秘钥管理、配置管理、自动拓容等。在生产环境的应用比较广泛,稳定性更高。
  • 裸机部署 裸机部署是我们的一个备案,考虑到以上两个方案在当时没有具体线上实施的经验,所以如果Docker SwarmKubernetes都没有成功,我们直接裸机部署。

裸机部署的需要解决单机端口冲突,如果一个服务在一个服务器上最多只部署一个,那么可以通过写脚本,并划分服务器角色的方式进行部署,利用ansible可以定义user服务集群、content服务集群、comment服务集群等,通过分发二进制文件的方式让服务启动,这样的方案要考虑到服务更新、服务重启、服务删除等逻辑,同一时间只有部分节点更新,在服务未更新成功的时候流量暂时不能打到正在更新的节点。

四.准备工作

1.代码托管

由于之前使用github开发人员的代码提交在有翻墙工具的帮助下速度依然不是很理想,我们自建了Gitlab仓库,自此开发过上了幸福的生活。

2.容器化

swarmkubernetes是基于docker快速创建删除服务,通过增加容器为服务拓容,缩减容器为服务缩小规模,所以所有项目必须要构建docker镜像。按项目类型划分,我们遇到3种镜像打包情况。

  1. 后端项目

后端服务90%是golang项目,针对golang的镜像,我们采取将golang项目编译成可执行文件,基于最小的alpine镜像打包入docker,这里遇到过一个问题,就是alpine里缺少openssl的证书,无法支持https,我们自定义了新的基础镜像,不仅将证书文件打入镜像,同时为了线上调试方便,增加了tcpdumpstracebash等工具,在初期调试容器间通信问题时发挥重要的作用。

  1. 前端静态文件

见闻的后台以及m站基于Vue,编译后生成的静态文件打入镜像,通过nginx访问。

为了支持HTTP2,我们打入nginx镜像缺少的证书。

  1. 服务端渲染

主站PC站基于nodejsVue实现服务端渲染,所以不仅需要依赖nodejs,而且需要利用pm2进行nodejs生命周期的管理。为了加速线上镜像构建的速度,我们利用taobao源https://registry.npm.taobao.org进行加速, 并且将一些常见的npm依赖打入了基础镜像,避免每次都需要重新下载,镜像打包从开始的3分钟缩减到1.5分钟

三类镜像结构

3.持续集成

我们利用Gitlab CI配置了测试、镜像构建、镜像发布、自动部署等流程,后端服务从提交代码到测试分支到测试环境自动部署完成花费1.5分钟,前端服务平均为2.5分钟

CI任务中的test->build->docker->deploy流程

五.云平台的选择

最终我们选择了腾讯云的容器服务,主要基于以下几点考虑:

  • 腾讯云的容器服务是在腾讯云的iaas上为每个用户构建容器集群,他们提供的微服务架构和持续集成与交付的应用场景基本满足了我们的述求。
  • 腾讯云的容器服务是基于Kubernetes实现的,支持完全的kubernetes能力。
  • 腾讯云在Kubernetes上实现了他们的存储、负载均衡等产品的插件、复用了他们平台的监控、日志等能力。减少了我们接入和开发的成本。

六.服务在腾讯云的应用

我们将我们的应用重构成微服务的架构,每个微服务部署成腾讯云容器服务上的一个服务,前端接入通过一个负载均衡。后端服务间可互相访问。

通过VPC进行网络隔离,将网络划分为生产环境、测试环境,在生产环境中又划分backend子网和data子网,设定子网之间的访问规则,增加服务端的安全性。

七.性能对比

利用locust模拟线上请求的比例,利用2台16核的压测机在内网对10台16C32G的机器上的服务进行压测,达到1w/s QPS以上,并且服务的负载并没达到极限,这已经是之前PHP生产环境20+台16C32G服务器能达到的QPS。

八.线上调用追踪

通过追踪API调用链的流向与耗时,我们可以找出性能的瓶颈。我们通过zipkin实际优化了几种情况:

  • 服务调用冗余 当拉取文章列表的时候,我们需要拉取文章对应的作者信息,开始的时候我们使用拉取单个作者信息的方式,后来性能调优阶段,我们将其改为批量拉取作者列表,减少RPC的冗余。
  • 服务耗时长 对于有些本身就比较耗时并且对即时性不是那么苛刻的计算服务,我们为了保证服务的响应时间,会适量地加上缓存。

九.监控与报警

由从外部系统表征到内部日志,我们将监控分为API健康,程序错误报警,以及服务器/容器负载。

排查问题的流程一般有两种情况,一种是用户发现问题,申报问题,开发人员跟进问题;一种是我们的监控优先发现问题,开发人员在用户反馈前跟进并修复。在报警方面,我们通过为监控系统谨慎设置报警阈值,当触发报警时,开发人员会收到邮件。

这里我们在报警的定义上有过思考,即什么样的报警算是有意义的?我们遇到过每天10几条重复的报警,通常开发人员开始时会对报警非常重视,当重复的报警一再出现,渐渐失去了对报警的关注。所以我们有解除一些不必要的报警,并且对剩余一些报警进行调查,甚至有些警报是因为监控工具本身的不准确引起的。

1.API健康

我们设置默认的时间区间是5分钟

  • 统计API五分钟内平均 QPS
  • API 95%以内的延迟分布
  • QPS 最高的前10的API
  • API 的返回码的分布

2.程序错误报警

后端程序内接入Sentry日志报警系统,golang程序捕获panic日志以及error日志,并发送报警邮件。

3.服务器/容器负载

通过在服务器上运行telegraf daemon进程,收集服务器metrics并发送给influxdb,使用Grafana作为前端面板,对服务器负载以及容器的平均 CPU 、内存占用率进行监控。

十.结束语

本文介绍了华尔街见闻微服务的实践情况。经过几个月的开发测试,已经完成了线上服务从PHPGolang的转型。

在服务的稳定性上经历了考验,支撑了几次重大新闻的高流量。

在开发流程上,搭建了完善的自动化工具,减少了人工操作的重复性和误操作概率。

在运维方面,由于监控系统对系统完整的监控,与Kubernetes健全的上线、下线、回滚、拓容功能配合,能以极快的速度处理线上问题。

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

编辑于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏跨界架构师

做了「负载均衡」就可以随便加机器了吗?这三招来帮你!

        这篇是《分布式关注点系列》中「负载均衡」相关的内容最后一发了,后续也会继续讲「高可用」相关的其它主题,主要是限流、降级、熔断之类的吧,具体还没定...

1463
来自专栏Java架构师历程

springcloud(一):Spring Cloud简介

研究了一段时间Spring Boot了准备向Spring Cloud进发,公司架构和项目也全面拥抱了Spring Cloud。在使用了一段时间后发现Spring...

1243
来自专栏数据和云

问诊白求恩之性能分析:把握趋势比你更了解你的库

如果问你,你的数据库性能如何,你会怎么回答呢? DBA 甲: db file sequential read等待事件经常出现,不知道什么原因。 DBA 乙:平常...

3215
来自专栏PHP在线

高并发量网站解决方案

一个小型的网站,可以使用最简单的html静态页面就实现了,配合一些图片达到美化效果,所有的页面均存放在一个目录下,这样的网站对系统架构、性 能的要求都很简单。随...

3698
来自专栏编程坑太多

『中级篇』容器的技术概述(二)

1424
来自专栏CSDN技术头条

Instagram 的持续部署实践

在Instagram,我们每日部署后端代码的次数达30-50次,只要有工程师将修改内容提交到主服务器,部署就会进行,而且在大多情况下无需人工介入。这听起来也许很...

20810
来自专栏杨建荣的学习笔记

批量导出csv文件的基本尝试(r8笔记第44天)

开发同学前几天给我提了一个数据查询的需求,大体是查询某个表的数据,然后把查询结果以csv的形式提供给他们,一般来说这种定制查询,开发的同学都会提供好语句,DBA...

3024
来自专栏软件测试经验与教训

BUG关闭原因

2424
来自专栏恒思考

做什么样的软件系列之Firebase

为什么要写这一篇? 做为一个iOS开发者我没有精力自己实现一套,登陆系统后台,广告系统后台,自己尝试写过身份认证系统,但是忘记密码之类的写的又丑又简陋。同时写后...

1454
来自专栏Rainbond开源「容器云平台」

【微服务干货系列】微服务性能模式

1695

扫码关注云+社区