如何读懂Web服务的系统架构图

本文来自读者Jan Fan投稿。自己对文章做了小部分修改。

Web服务的一个重要特点就是流量大、数据多,仅靠一台服务器肯定难以支撑大规模的服务。 所以我们经常会看到诸如以下的一些术语,教人好生不懂:

*:系统架构、物理架构、Web服务基础设施

*:应用服务器

*:数据库服务器

*:索引服务器

*:反向代理服务器

*:缓存服务器

*:分布式、可扩展性

*:cpu负载、IO负载

本文的主要目标—读懂下面这张图例:

cpu负载和I/O负载

我们从CPU和IO说起。 一个典型的Web服务就是网站服务——用户通过浏览器向服务器发起请求,服务器从数据库提取数据后,加工处理返回HTML页面给用户。

上图中的4个箭头“

可扩展性

如何处理规模逐渐增大服务需求呢?这要求你的系统要有可扩展性:

横向扩展:横向扩展又叫分布式,一台Server撑不住我就多来几台。 但现实远比理想复杂。

纵向扩展:纵向扩展是金融高富帅或者企业软件比较常采用的方法,因为服务器的价格和性能不成正比,性能达到一定程度后,每一分性能的提高需要投入更多的钱——服务器性能的边际价格是不断上升的。 对于互联网的草根创业团队来说,这显然是不可接受的。

cpu能力的扩展

CPU负载的分散比较容易,因为CPU的计算不存在依赖性,即当前请求的结果不依赖于上一次请求的结果。 HTTP协议的stateless就是一个很好的例子。 这样CPU撑不住的时候,我直接clone几台完全一起的就好了,而被克隆的这种服务一般就称作应用服务器。

应用服务器和Web服务器的界限并不很清晰。 Web服务器负责接收用户发过来的请求和返回资源对象给用户,而应用服务器则负责通过计算产生这个资源对象(比如调用CGI脚本)。

这样CPU的负载问题就解决了,我们的架构变成了这个样子。

I/O能力的扩展

内存读取的速度远高于磁盘,根据操作系统缓存(Cache)的原理,我们提高数据读取速度的基本思路是——提高内存大小可以显著的降低IO负载,即为你的Server换上更大更多的内存条。 相应的基本方针——当操作系统的缓存无法处理时,再进一步考虑分布式。IO负载分散的本质也就是廉价小容量内存的分散。

IO负载的分散可比CPU的难多了,由于存在数据同步的问题,我们这里不讨论数据库服务器之间全盘的数据复制和冗余化。 既然数据量太大,大到一台服务器的内存装不下,那我们就把数据分割开来——数据分割(数据压缩也可以达到一定的效果)。

Web服务的请求是存在访问模式,比如爬虫和普通用户的访问(爬虫会请求很早以前的页面,而普通用户大多访问当前的热门页面),我们把应对用户的热门的资源对象放在一台服务器,应对爬虫的资源对象放在另一台。

即使不存在访问模式,我们也可以通过分区(Partitioning),即表分割来做到。 比如现在MySQL数据库里有一个用户ID表,用户量增长后表的record数是13亿,我们根据ID的大小来排序,分割成几个ID表,每个表几千万个ID,这样单个表大小就是GB级别——内存够装了。

不管是哪一种情况,我们都需要一台索引服务器,来做应用服务器和数据服务器的mapping。

那么现在我们的架构就是:

本文的说明就到这里为止了,相信你现在再回头看开头的那张系统架构图将会非常容易了吧。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180302B00CHD00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券