首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

玩转直播系列之消息模块演进(3)

一、背景

即时消息(IM)系统是直播系统重要的组成部分,一个稳定的,有容错的,灵活的,支持高并发的消息模块是影响直播系统用户体验的重要因素。IM 长连接服务在直播系统有发挥着举足轻重的作用。

本篇文章针对秀场直播,简单地描述一下消息模型,说明一下我们消息模型的架构,并结合我们一年以来,通过处理不同的业务线上问题,来进行演进式的消息模型架构的升级与调整,将此整理成文,并分享給大家。

在目前大部分主流的直播业务中,推拉流是实现直播业务最基本的技术点,消息技术则是实现观看直播的所有用户和主播实现互动的关键技术点,通过直播 IM 系统模块,我们可以完成公屏互动,彩色弹幕,全网送礼广播,私信,PK 等核心秀场直播的功能开发。"IM 消息"作为用户和用户,用户和主播之间"沟通"的信息桥梁,如何保证"信息桥梁"的在高并发场景下保持稳定可靠,是直播系统演进过程中一个重要的话题。

二、直播消息业务

在直播业务中,有几个核心的关于消息模型的概念,我们先简单地介绍一下,方便大家对直播相关的消息模型有一个整体上的理解。

2.1 主播与用户

主播和观众,对于 IM 系统来说,都是一个普通用户,都会有一个唯一用户标识,也是 IM 分发到点对点消息的重要标识。

2.2 房间号

一个主播对应一个房间号(RoomId),主播在开播之前,进行身份信息验证之后,就会绑定唯一的房间号,房间号是 IM 系统进行直播间消息分发的重要标识。

2.3 消息类型划分

按照直播业务特性,IM 消息划分的方式有很多方式,例如按照接收方维度进行划分,按照直播间消息业务类型进行划分,按照消息的优先级,存储方式都可以进行不同的划分等等方式。

通常,我们按照接收方维度进行划分有如下几个类型的消息:

  • 点对点消息(单播消息)
  • 直播间消息(群播消息)
  • 广播消息

按照具体的业务场景有如下几个类型的消息:

  • 礼物消息
  • 公屏消息
  • PK 消息
  • 业务通知类消息

消息能够实时准确地分发到对应的群体或者单个用户终端都是非常必要的。当然好一点的 IM 消息模型也能够赋能业务一些新的能力,例如如下的能力:

  • 统计每个直播间的实时在线人数
  • 捕获用户进出直播间的事件
  • 统计每个用户实时进入直播间的时间

2.4 消息优先级

直播的消息是有优先级的,这一点是很重要的,与微信,QQ 等聊天 IM 产品不一样的地方是直播间消息是分优先级的。

微信等聊天消息产品,不管是私聊还是群聊,每个人发送消息的优先级基本上是一样的,不存在谁的消息优先级高,谁的消息优先级低,都需要将消息准确实时地分发到各个业务终端,但是直播因为业务场景的不同,消息分发的优先级也是不一样的。

举例来说,如果一个直播间每秒只能渲染 15~20 个消息,如果一个热点直播间一秒钟产生的消息量大于 20 条或者更多,如果不做消息优先级的控制,直接实时分发消息,那么导致的结果就是直播间公屏客户端渲染卡顿,礼物弹框渲染过快,用户观看体验大幅下降,所以我们要针对不同业务类型的消息,给出不同的消息优先级。

举例来说,礼物消息大于公屏消息,同等业务类型的消息,大额礼物的消息优先级又大于小额礼物的消息,高等级用户的公屏消息优先级高于低等级用户或者匿名用户的公屏消息,在做业务消息分发的时候,需要根据实际的消息优先级,选择性地进行消息准确地分发。

三、消息技术点

3.1 消息架构模型

3.2 短轮询 VS 长链接

3.2.1 短轮询

3.2.1.1 短轮询的业务模型

首先我们先简单地描述一下短轮询时间的过程和基本设计思想:

  • 客户端每隔 2s 轮询服务器接口,参数是 roomId 和 timestamp,timestamp 第一次传递 0 或者 null。
  • 服务器根据 roomId 和 timestamp 查询该房间在 timestamp 时间戳后产生的消息事件,返回限定条数的消息例如(例如返回 10~15 条,当然在这个 timestamp 之后产生的消息数远远大于 15 条,不过因为客户端渲染能力有限和过多的消息展示,会影响用户体验,所以限制返回的条数),并且同时返回这些消息中最后一条消息产生的时间戳 timestamp,作为客户端下次请求服务器的基准请求时间戳。
  • 以此反复,这样就可以每隔 2s 按照各个终端要求,更新每个直播间的最新消息了

整体的主体思想如上图所示,不过具体的时间可以再做精细化处理,后续再做具体的说明和细节说明。

3.2.1.2 短轮询的存储模型

短轮询的消息存储与正常的长连接的消息存储有一定的区别,不存在消息扩散的问题,我们需要做的消息存储需要达到如下的业务目标:

  • 消息插入时间复杂度要相对比较低;
  • 消息查询的复杂度要相对比较低;
  • 消息的存储的结构体要相对比较小,不能占用太大的内存空间或者磁盘空间;
  • 历史消息能够按照业务需要做磁盘持久化存储;

结合上述 4 点的技术要求,毕竟经过小组成员的讨论,我们决定使用 Redis 的 SortedSet 数据结构进行存储,具体实现思路:按照直播间产品业务类型,将业务消息划分为如下四大类型:礼物,公屏,PK,通知。

一个直播间的消息使用四个 Redis 的 SortedSet 数据结构进行存储,SortedSet 的 key 分别是"live::roomId::gift","live::roomId::chat","live::roomId::notify","live::roomId::pk",score 分别是消息真实产生的时间戳,value 就是序列化好的 json 字符串,如下图所示:

客户端轮询的时候,服务端查询的逻辑如下所示:

很多同学会疑问,为什么不适用 Redis 的 list 的数据结构呢?如下图会进行详细的说明:

最后我们再对比一下 Redis 的 SortedSet 和 Redis 的 List 这两个数据结构在直播消息存储的时候,时间复杂度的相关分析。

以上,就是我们使用 Redis 的 SortedSet 数据结构进行消息存储的一些简单的设计思考,后续我们也会提到端轮询的编码时候,需要的注意点。

3.2.1.3 短轮询的时间控制

短轮询的时间控制及其重要,我们需要在直播观众观看体验 QoE 和服务器压力之间找到一个很好的平衡点。

轮询的间隔时间太长,用户体验就会下降很多,直播观看体验就会变差,会有"一顿一顿"的感觉。短轮询的频率过高,会导致服务器的压力过大,也会出现很多次"空轮询",所谓的"空轮询"就是无效轮询,也就是在上一秒有效轮询返回有效消息之后,间隔期直播间没有产生新的消息,就会出现无效的轮询。

vivo 直播目前每日的轮询次数是 10+亿次,晚观看直播高峰期的时候,服务器和 Redis 的 CPU 负载都会上升,dubbo 的服务提供方的线程池一直处于高水位线上,这块需要根据机器的和 Redis 的实时负载的压力,做服务器的水平扩容和 Redis Cluster 的节点扩容,甚至让一些超高热度值的直播间负载到指定的 Redis Cluster 集群上,做到物理隔离,享受到"VIP"服务,确保各个直播间的消息相互不影响。

直播人数不一样的直播间,轮询的时间也是可以配置的,例如人数比较少的直播,百人以下的直播间,可以设置比较高频的轮询频率,例如 1.5s 左右,超过 300 人以上的,1000 人以下可以 2s 左右,万人直播间可以设置 2.5s 左右,这些配置应该都可以通过配置中心实时下发,客户端能够实时更新轮询的时间,调整的频率可以根据实际直播间用户体验的效果,并且结合服务器的负载,找到一个轮询间隔的相对最佳值。

3.2.1.4 短轮询的注意点

1)服务端需要校验客户端传递过来的时间戳:这一点非常重要,试想一下,如果观众在观看直播的时候,将直播退出后台,客户端轮询进程暂停,当用户恢复直播观看画面进程的时候,客户端传递过来的时间就会是非常老旧甚至过期的时间,这个时间会导致服务器查询 Redis 时出现慢查,如果出现大量的服务器慢查的话,会导致服务器连接 Redis 的连接无法快速释放,也会拖慢整个服务器的性能,会出现一瞬间大量的轮询接口超时,服务质量和 QoE 会下降很多。

2)客户端需要校验重复消息:在极端情况下,客户端有可能收到重复的消息,产生的原因可能如下,在某一个时刻客户端发出 roomId=888888&timestamp=t1 的请求,因为网络不稳定或者服务器 GC 的原因,导致该请求处理比较慢,耗时超过 2s,但是因为轮询时间到了,客户端又发出了 roomId=888888&timestamp=t1 的请求,服务器返回相同的数据,就会出现客户端重复渲染相同的消息进行展示,这样也会影响用户体验,所以每一个客户端有必要对重复消息进行校验。

3)海量数据无法实时返回渲染的问题:设想一下,如果一个热度极大的直播间,每秒钟产生的消息量是数千或者上万的时候,按照上面的存储和查询思路是有漏洞的,因为我们每次因为各个因素的限制,每次只返回 10~20 条消息,那么我们需要很长的时间才能把这热度很多的一秒钟的数据全部返回,这样就会造成最新的消息无法快速优先返回,所以轮询返回的消息也可以按照消息优先级进行选择性丢弃。

客户端轮询服务服务器查询直播间的消息的好处是显而易见的,消息的分发是非常实时和准确的,很难出现因为网络颤抖导致消息无法到达的场景,不过坏处也是非常明显的,服务器在业务高峰期的负载压力很大,如果直播间的所有消息都是通过轮询分发的,长期以往,服务器是很难通过水平扩容的方式来达到线性增长的。

3.2.2 长连接

3.2.2.1 长连接的架构模型

从流程上来说,如上图所示,整体直播长连接的流程:

手机客户端首先通过 http 请求长连接服务器,获取 TCP 长连接的 IP 地址,长连接服务器根据路由和负载策略,返回最优的可连接的 IP 列表。 手机客户端根据长连接服务器返回的 IP 列表,进行长连接的客户端的连接请求接入,长连接服务器收到连接请求,进而建立连接。 手机客户端发送鉴权信息,进行通信信息的鉴权和身份信息确认,最后长连接建立完成,长连服务器需要对连接进行管理,心跳监测,断线重连等操作。

长连接服务器集群的基本架构图如下所示,按照地域进行业务划分,不同地域的终端机器按需接入;

3.2.2.2 长连接建立和管理

为了使消息即时、高效、安全地触达用户,直播客户端和 IM 系统建立了一条加密的全双工数据通路,收发消息均使用该通道,当大量用户在线的时候,维护这些连接、保持会话,需要用到大量内存和 CPU 资源。

IM 接入层尽量保持功能简洁,业务逻辑下沉到后面逻辑服务中进行处理,为了防止发布的时候,重启进程会导致大量的外网设备重新建立连接,影响用户体验。接入层提供热更新的发布方案:连接维护,账号管理等不经常改动的基础逻辑放入主程序中,业务逻辑采用 so 插件的方式嵌入到程序的,修改业务逻辑时只需要重新加载一次插件即可,可以保证与设备的长连接不受影响。

3.2.2.3 长连接保活

长连接建立后,如果中间网络断开,服务端和客户端都无法感知,造成假在线的情况。因此维护好这个“长连接”一个关键的问题在于能够让这个“长连接”能够在中间链路出现问题时,让连接的两端能够快速得到通知,然后通过重连来建立新的可用连接,从而让我们这个长连接一直保持高可用状态。IM 在服务端开启了 keeplive 保活探测机制和在客户端启用了智能心跳。

  • 利用 keeplive 保活探测功能,可以探知客户端崩溃、中间网络端开和中间设备因超时删除连接相关的连接表等意外情况,从而保证在意外发生时,服务端可以释放半打开的 TCP 连接。
  • 客户端启动智能心跳不仅能在消耗极少的电和网络流量条件下,通知服务器客户端存活状态、定时的刷新 NAT 内外网 IP 映射表,还能在网络变更时自动重连长连接。

3.2.3 直播间 IM 消息分发

IM 长连接分发消息的整体流程图

在整合客户端,IM 长连接服务器模块和直播业务服务器模块这三个模块的时候,整体消息的分发逻辑遵循如下的基本原则:

  • 单播,群播,广播消息所有的消息都是由直播业务服务器调用 IM 长连接服务器的接口,将需要分发的消息分发到各个业务直播间。
  • 业务服务器对直播间产生的事件进行对应的业务类型做响应的处理,例如送礼扣减虚拟货币,发送公屏进行文本健康校验等。
  • 客户端接受直播业务服务器的信令控制,消息是通过长连接通道分发还是 http 短轮询分发,都是由直播业务服务器控制,客户端屏蔽底层消息获取的方式细节,客户端上层接受统一的消息数据格式,进行对应的业务类型消息处理渲染。

3.2.3.1 直播间成员管理和消息分发

直播间成员是直播间最重要的基础元数据,单个直播间的用户量实际上是无上限的,且呈现大直播若干个(大于 30W 同时在线)、中直播间几百个、小直播几万个这样分布,如何管理直播间成员是一个直播间系统架构中核心功能之一,常见的方式有如下两种:

1.为直播间分配固定分片,用户与具体的分片存在映射关系,每个分片中保存用户相对随机。

采用固定分片的方式算法实现简单,但是对于用户少的直播间有可能分片承载的用户数量少,对于用户大的直播间有可能分片承载用户量又比较大,固定分片存在天然伸缩性差的特点。

2.动态分片,规定分片用户数,当用户数超过阈值时,增加一个新的分片,分片数量可以随着用户数增加而变化。

动态分片可以根据直播间人数自动生成分片,满了就开辟新片,尽量使每个分片的用户数达到阈值,但已有分片的用户数量随着用户进出直播间变化,维护复杂度比较高。

3.2.3.2 直播间消息分发

直播间中有进出场消息、文本消息、礼物消息和公屏消息等多种多样消息,消息的重要程度不一样,可为每个消息设定相应的优先级。

不同优先级的消息放在不同的消息队列中,高优先级的消息优先发送给客户端,消息堆积超过限制时,丢弃最早、低优先级的消息。另外,直播间消息属于实时性消息,用户获取历史消息、离线消息的意义不大,消息采用读扩散的方式存储组织。直播间消息发送时,根据直播间成员分片通知对应的消息发送服务,再把消息分别下发给分片中对应的每一个用户,为了实时、高效地把直播间消息下发给用户,当用户有多条未接收消息时,下发服务采用批量下发的方式将多条消息发送给用户。

3.2.3.3 长连接的消息压缩

在使用 TCP 长连接分发直播间消息的时候,也需要注意消息体的大小,如果某一个时刻,分发消息的数量比较大,或者同一个消息在做群播场景的时候,群播的用户比较多,IM 连接层的机房的出口带宽就会成为消息分发的瓶颈。所以如何有效的控制每一个消息的大小,压缩每一个消息的大小,是我们也需要思考的问题,我们目前通过两种方式来来做相关消息体结构的优化:

使用 protobuf 协议数据交换格式 相同类型的消息进行合并发送

经过我们线上测试,使用 protobuf 数据交换格式,平均每一个消息节省 43%的字节大小,可以大大帮助我们节省机房出口带宽。

3.2.3.4 块消息

所谓块消息,也是我们借鉴其他直播平台的技术方案,也就是多个消息进行合并发送,直播业务服务器不是产生一个消息就立马调用 IM 长连接服务器集群直接进行消息的分发。主要思想,就是以直播间为维度,每隔 1s 或者 2s,以匀速的时间间隔将在这个时间段业务系统产生的消息进行分发。

每秒分发 10~20 个消息,如果每秒中,业务服务器积累到的消息大于 10~20 个,那就按照消息的优先级进行丢弃,如果这 10~20 个消息的优先级都比较高,例如都是礼物类型的消息,则将消息放在后一个消息块进行发送,这样做的好处有如下三个;

合并消息,可以减少传输多余的消息头,多个消息一起发送,在自定义的 TCP 传输协议中,可以共用消息头,进一步减少消息字节数大小; 防止出现消息风暴,直播业务服务器可以很方便的控制消息分发的速度,不会无限制的分发消息到直播客户端,客户端无法处理如此多的消息; 友好的用户体验,直播间的消息因为流速正常,渲染的节奏比较均匀,会带来很好的用户直播体验,整个直播效果会很流畅

3.3 消息丢弃

不管是 http 短轮询还是长连接,在高热度值直播间出现的时候,都会存在消息丢弃的情况,例如在游戏直播中,有出现比较精彩瞬间的时候,评论公屏数会瞬间增加,同时送低价值的礼物的消息也会瞬间增加很多,用来表示对自己选手精彩操作的支持,那么服务器通过 IM 长连接或者 http 短轮询每秒分发的消息数就会数千或者上万,一瞬间的消息突增,会导致客户端出现如下几个问题;

客户端通过长连接获取的消息突增,下行带宽压力突增,其他业务可能会受到影响(例如礼物的 svga 无法及时下载播放); 客户端无法快速处理渲染如此多的礼物和公屏消息,CPU 压力突增,音视频处理也会受到影响; 因消息存在积压,导致会展示过期已久消息的可能,用户体验(QoE)指标会下降。

所以,因为这些原因,消息是存在丢弃的必要的,举一个简单的例子,礼物的优先级一定是高于公屏消息的,PK 进度条的消息一定是高于全网广播类消息的,高价值礼物的消息又高于低价值礼物的消息。

根据这些业务理论,我们在真实代码开发中,可以做如下的控制:

结合具体业务特点,给各个业务类型的消息划分出不同等级,在消息分发触发流控的时候,根据消息优先级选择性丢弃低优先级消息。 消息结构体新增创建时间和发送时间两个字段,在实际调用长连接通道的时候,需要判断当前时间与消息的创建时间是够间隔过大,如果过大,则直接丢弃消息。 增益消息(纠正消息),在业务开发中,消息的设计中,尽量地去设计增益消息,增益消息指的是后续到达的消息能够包含前续到达的消息,举例来说,9 点 10 的消息,主播 A 和主播 B 的 PK 值是 20 比 10,那么 9 点 11 分分发的 PK 消息值就是 22 比 10,而不能分发增量消息 2:0,希望客户端做 PK 条的累加(20+2 :10+0),但是存在消息因为网络颤抖或者前置消息丢弃,导致消息丢弃,所以分发增益消息或者纠正消息会能够帮助业务重新恢复正常。

四、写在最后

任何一个直播系统,随着业务的发展和直播间人气不断的增加,消息系统遇到的问题和挑战也会随之而来,不管是长连接的消息风暴,还是海量 http 短轮询的请求,都会导致服务器压力的剧增,都是我们需要不断解决和优化的。我们要针对每一个时期的业务特点,做直播消息的持续升级,做可演进的消息模块,确保消息分发的能力能够确保业务的持续发展。

vivo 直播消息模块也是逐步演进的,演进的动力主要来自于因为业务的发展,随着业务形态的多样化,观看的用户数越来越多,系统的功能也会逐步增多,也会遇到各种性能瓶颈,为了解决实际遇到的性能问题,会逐一进行代码分析,接口性能瓶颈的分析,然后给出对应的解决方案或者解耦方案,消息模块也不例外,希望这篇文章能够给大家带来相关直播消息模块的设计启发。

作者:vivo 互联网技术-LinDu、Li Guolin

  • 发表于:
  • 本文为 InfoQ 中文站特供稿件
  • 首发地址https://www.infoq.cn/article/3445a0338157044334c359c77
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券