关于即时通信服务器架构的一些思考

对于一个即时通信服务器来说,在用户量少的时候,一台服务器就足以提供所有的服务。而这种架构也最简单,举个例子,用户A与用户B互为好友,A向B发消息,服务器接收到消息时,解析出接收消息的人,直接转发给B即可。可是当用户数量越来越多时,一台服务器已经无法所有用户的需求,这时就要进行服务扩容,进行分布式部署

如图所示,不同的用户可能登录到不同的服务器上,那么用户A给用户B发消息时,服务器收到消息,首先判断B是否也登录在本服务器上,如果是,那么直接转发消息即可。如果B不在本服务器上,那应该往哪里转发这条消息呢?最简单的做法就是向服务器集群中的其他服务器广播这条消息,对于每个收到这条消息的服务器,首先判断消息的目的用户是否登录在自己身上,如果不是,直接忽略该消息。如果是,那么向目的用户转发该消息。固然,这种暴力粗犷的做法是最简单直接的,但是会产生很多无效的消息转发,对于服务器性能产生很大的影响。曾看过蘑菇街开源的即时通信软件Teamtalk的代码,服务器就是这种实现方式。其服务器架构如下:

不同的msg服务器连接到同一台route server上,所有msg服务器之间的转发全部通过route server。这无疑会加重route server的负载。即时msg server部署的再多,根据木桶理论,一个系统的性能是由其最薄弱的环节所决定的。所以也注定这样的架构,其系统容量也是有限的。那么如何改善这种系统呢,很明显服务器之间的消息转发不能直接全部广播,而应该有一套明确的路由系统,即服务器在转发消息时,应该知道这条消息应该转发到哪一台服务器,这样就不需要每条消息都在所有服务器之间广播了。

那么如何实现这样一套路由系统呢?

简单的做法是,每个用户上线时,通过其连接的msg server向其他所有msg server广播自己的登录信息,告知其他服务器自己登录在哪台服务器上面。这样当某个用户向其好友发消息时,首先通过好友id查看其登录的msg server。如果好友与自己是同一台服务器,那么直接转发即可;如果不是,服务器向route server发送转发该消息,并且带上目标msg server的id.这样route server 收到消息后,解析出目标的msg server,进行一次转发即可,省去了大量的广播消息。这种方式虽然解决了广播消息的问题,但是在每台msg server上都要保存所有用户的路由信息。当所有用户都登录时,几乎就退化成了单点模型,msg server肯定承受不了。

那么如何解决这个问题呢?试想一下,既然所有的msg server上都保存着同样的路由信息,那么我们可以把这些数据从msg server剥离出来,存在一个单独的服务器上,供msg server查询。我们暂且把这个服务器叫做route info server(路由信息服务器).对于一个用户要存储的数据为

{
   userid,
   msgserverid
}

假设这两个数据都是32Byte,那么存储一亿个用户需要的内存32B*10^8=3.2G。目前好点的服务器都有50G的内存,很显然内存不是问题。那么就剩访问量的问题。如果所有的msg server都从这一台服务器上读取数据, 肯定会影响整个系统的性能。所以路由信息服务器不能采用这种单点模型。考虑到这种路由信息的特点,很明显是一种读多写少的数据。一个用户只有在登录的时候才会写一次路由信息,其他时候就是转发消息的时候读取路由信息了。那么可以采用类似数据库的主备模型,主服务器用来写路由信息,备服务器用于查询路由信息。而且可以设置多台备服务器,分担msg server的读压力。其实我们也可以使用一些成熟的缓存系统来完成路由信息服务器的功能,比如redis. redis拥有现成的主备方案,只是像这种通用的缓存服务器在存储数据时,消耗的内存会大些。研究过redis源码的,大多都能理解。其key value都存储在redisobject的结构体当中,有一些附加的信息,所以比自己写一个这样的服务所消耗的内存肯定会大些。

OK,说完了路由信息服务器,我们再回到msg server上来。那么msg server在转发消息时,首先根据目的用户的id 到路由信息服务器上查找其所在的msg server用于消息转发。但是这也会存在一个,每次转发消息时,都要查询一次路由信息,这无疑会影响消息的转发速度,而且也会增大路由信息服务器的访问压力。如果在发送消息之后,将路由信息保存到本地,那么下次发送消息,就无需再去路由信息服务器重复查询了。但是也不能把所有的路由全部保存到本地,那样又会严重消耗msg server的内存。于是,就有我们想到一种折中的方案,使用一个lru的缓存队列,在需要保存新的路由信息时,首先查看缓存队列是否已满,如果未满,直接插入到队首,如果队列已满,淘汰到队尾的数据。缓存列队大小可根据内存大小灵活设置。考虑到在我们平时在使用qq时,大部分人都登录着,但是发消息的人并不多。对于路由信息,在其首次转发消息是,从路由信息服务器查询一次路由,在其整个回话过程中,路由信息都缓存在本地。在其会话结束后,将最近最久未使用的路由数据淘汰出去,这种做法再考虑到内存使用的同时,又大大减少了服务器的访问次数,算是一种较好的折中方案. 在完成了路由信息系统之后,route server也可以进行水平扩展,route server要做的仅仅是转发消息,并不需要存储数据,扩展起来非常方便。最终的系统架构如下:

总结:

1. 本文所描述的即时通信服务器架构,着重讨论的是消息如何路由的问题,但这并不代表一个完整的即时通信服务器系统,诸如注册,登录,离线消息,文件等功能这些都未在本文的讨论范围之类

2. 本文中所提的方案也是一种设想,并未真正进行实现,肯定也有很多细节问题没有考虑到。欢迎大家留言讨论

3. 对于本文所提的系统,可称之为一个服务集群。而像qq这样数量用户的系统,在全国分布了很多个集群。本文所讨论的也仅仅局限于一个集群内的通信设计,而集群之间的通信又如何通信呢。每个集群的路由数据,如果全同步到其他集群,这种做法显然不是最优。如果有更好的想法,也欢迎留言讨论

原文发布于微信公众号 - 高性能服务器开发(easyserverdev)

原文发表时间:2018-03-26

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏魏艾斯博客www.vpsss.net

腾讯云服务器生成免费快照过程记录

57230
来自专栏北京马哥教育

Linux 性能监控: 那些令人激赏的命令行工具

引言 对于系统和网络管理员来说每天监控和调试Linux系统的性能问题是一项繁重的工作。在IT领域作为一名Linux系统的管理员工作5年后,我逐渐认识到监控和保持...

38380
来自专栏

即时通信服务器架构的一些思考

对于一个即时通信服务器来说,在用户量少的时候,一台服务器就足以提供所有的服务。而这种架构也最简单,举个例子,用户A与用户B互为好友,A向B发消息,服务器接收到消...

24750
来自专栏公有云大数据平台弹性 MapReduce

简单了解公平调度器的一些队列设置

在腾讯云EMR的用户日常反馈中,经常会遇到因为YARN的队列配置不合理导致资源利用率不高,任务提交不上的问题,所以有了以下的文章,方便用户在日常按照一定的需求将...

23520
来自专栏

即时通信服务器架构的一些思考

对于一个即时通信服务器来说,在用户量少的时候,一台服务器就足以提供所有的服务。而这种架构也最简单,举个例子,用户A与用户B互为好友,A向B发消息,服务器接收到消...

29990
来自专栏同步博客

PHP将数据导出Excel表中(投机型)

  因为ms word和excel的文档都支持html文本格式,因此我们可以基于这个原理采用html文本格式进行数据的输出。

13430
来自专栏区块链

Cookie窃取与欺骗

Cookie窃取与欺骗 实验准备: 1、xss平台(http://manshow.xyz/xss) 2、黑客:172.18.199.27 3、目标:172.18...

22800
来自专栏Albert陈凯

2018-10-14 Chrome 不自动填写密码了 autofill not work

我照着这个里面的方案试验了一次 https://www.v2ex.com/t/255542

12530
来自专栏皮振伟的专栏

[linux][nginx]nginx的graceful shutdown和worker shutdown timeout

前言: 某大佬问作者,nginx做proxy的时候,重新加载配置的时候,会不会影响已有的连接? 作者基于too young too simple的认知:clie...

26820
来自专栏落花落雨不落叶

文档模式小记

34760

扫码关注云+社区

领取腾讯云代金券