近年来在线教育业务蓬勃发展,业务模式和教学场景也在不断的推陈出新,新的模式和场景对直播技术提出了新的挑战,特别是沉浸式课堂教学对直播的实时性和互动性要求越来越高,传统的基于 rtmp 的直播技术已无法满足这一诉求。
在这种大趋势和自身业务发展需要的驱动下,国内在线教育企业作业帮自研出一套能适应高并发低延迟的互动直播系统,并已投入到生产环境稳定运行。疫情期间,仅2月3日至3月9日,作业帮直播课就成功完成了对3300万学员的完美承接,在直播技术领域备受认可。在直播系统背后,是作业帮海量的用户和数据积累的支撑。
本次分享立足在线教育的直播场景,着重介绍高并发低延迟直播架构的设计思路、技术要点和实践经验,并精选 3 个关键要点进行深入剖析,以期达到听众既能了解整个技术架构的全貌,又能触及到一些关键核心技术要点的效果。
大家下午好,今天我们聊的话题是——在线教育场景下的高并发低延迟直播技术。由于这个话题涉及到的技术面比较广,今天会挑一些重点,来谈谈作业帮在这块的实践经验,希望对大家能有所启发或者帮助。(回放视频戳这里 )
首先,简单自我介绍下,我毕业后加入百度,在百度知道从事相关的业务、基础架构的研发。目前在作业帮,负责作业帮直播技术团队,主要是两块,一块是长连接 & 实时消息分发相关的技术研发;一块是大直播、实时音视频相关的技术研发。
在谈技术话题之前,我们不妨一起来看看,在线教育的主要业务场景有哪些?我这里大概做了一些分类,大体上覆盖了几家头部在线教育公司的主要业务场景。详细分类如下:
对上述业务场景进行抽象,实际上可包含 3 大类技术:
上述业务场景的实现无非就是这些技术的组合,对于研发人员而言,需要做的就是根据实际的业务场景,选择合适的技术模型。
今天我们重点要谈的是——高并发低延迟直播技术,这里涉及到两个关键要点,一个是高并发;一个是低延迟。为了方便讨论,我们可以假定一个业务场景如下:
假定当前有 100 位主讲老师同时进行授课,此时分布在全国各地的 500w 位学生要同时听这些老师讲课,为了保证课堂的效果,要求直播过程的延迟要低,如果让你来设计这套系统,该如何做?
这个场景虽然是假定,但是在实际业务中是确实存在的,特别是几家头部公司,用户规模本来就大,当推出一些大师课、免费公益课、试听课时,用户的报名规模很容易达到这个数量级。
关于如何做到高并发和低延迟,每个人都会有自己的思路和想法,我这里也梳理了几个关键技术要点,但不是全部,供大家参考。
低延迟:
高并发:
特别要引起注意的是,在考虑高并发和低延迟的同时,还需要兼顾考虑总体质量和成本。
了解了相关的技术要点之后,接下来我们一起来看看总体的系统架构该如何设计。如上图所示,这只是一个简化版的架构图,实际的系统构成远比这个要复杂得多,但这个图基本可以呈现总体的架构设计思想,也覆盖了系统的关键核心链路。为了通俗解释整个流程,我举例来介绍下。假定主讲在北京,我们需要将主讲的流推上来,第一步是通过(上图)红色的线访问调度系统,调度系统根据主讲的 IP 等信息分析出主讲的地理位置和运营商信息,内部通过运行一套策略,最终反馈给主讲一个最佳的推流 IP,这个 IP 实际上对应着机房里的一台服务器。
说到策略,需要依据业务场景进行选择,至少有几个点需要考虑:一是就近接入,当然就近可能不一定是最好的,但大概率不会出错;二是至少要做 CPU 和网络负载调度,因为机房里面的机器很多,如果某些机器的 CPU 和网络负载已经很高,就不应该再给其调度流量;三是其他复杂策略,比如加入 AI、网络测速、路由选择等功能。总之,经过一系列测算会反馈给主讲最佳 IP,之后主讲就可以把流推到这个服务器上。zrtcpush 接收到流之后,会立即将流转推到同 IDC 机房的 zrelay 中继服务上,中继服务将流的信息同时注册到(上图)红色的 S3 调度系统之中,至此,推流结束(获取最佳 IP—推流边缘节点—中继服务—调度系统信息注册—推流结束)。
那么,在广州的学生如何看到老师的直播画面呢?假设该学生第一个进入直播间,那么同样首先需要向调度系统发出请求,调度系统根据策略返回最佳 IP 后,就开始从广州机房拉流,由于该学生第一个进入,此时还没有老师的直播流,zrtcpull 就会向同 IDC 的 zrelay 发出拉流请求,然而此时的 zrelay 也没有流,它会向调度系统查询,调度系统根据之前的注册信息,告诉广州的 zrelay 应该从北京的 zrelay 拉流,广州的 zrelay 拉流成功之后,再分发给 zrtcpull,然后由它反馈给学生;第二个广州的学生进来后,如果命中了与第一个学生相同的服务器,可以直接分发;后面的其他学生进来可能会被分到其它服务器,如果没有流就再次重复第一个学生进来时的操作,但是跨机房的拉流则不需要了。
至此,核心技术流程基本比较清楚,实际上可能更为复杂,这里再做一个简单总结:
系统架构主要由两大部分构成:
了解了总体的系统架构之后,接下来我们以协议简化、多核分发模型,上行推流优化三个技术要点为切入点,来拆解一下系统的实现细节和实践经验。
整套系统是基于流来设计的,没有房间的概念,系统并不维护流和流之间的关系,这样系统就可以做得更加轻量级,而轻量级的系统更容易做到高并发,因为环节和流程越复杂,按照木桶理论,瓶颈点会更多。
在协议简化上,我们主要做了两点,一是通道建立协议的简化;二是中继分发协议的简化。
在建立 RTC 传输通道之前,一般需要进行 SDP 的交换,这块的交换我们没有采用长连接协议,而是通过简单的 http 协议。以用户拉流为例作为说明:
对于 WebRTC 而言,为了保证安全,通道建立环节,还有一个 DTLS 过程协商秘钥,用于后续的 RTP 包加密。这块我们做成了可选的,如果应用场景对安全性要求没那么高,可以不用加密,从而提升性能。
除了边缘分发以外,中继分发也至关重要,两个 IDC 之间的媒体流传输选择何种协议值得认真考量,当然这里的选择有很多,我们选择了 KCP 协议,主要考虑了以下两点:
为了能够支持高并发,首先单机的性能要高,尽可能优化到极致,这样我们就可以用极少的服务器,来获得更高的系统吞吐量,下面我们重点谈谈分发模型。
为了方便说明问题,这里先设定一个场景,比如有多个用户从服务器 A 拉取流 B。首先,我们需要将不同的用户分散到不同的 CPU 核进行处理,一个通用的办法就是按照 uid % CPU 核心数进行分散。用户分散之后,接下来我们需要考虑另外一个问题,不同的 CPU 分发相同的媒体流,这个原始的媒体流是从中继分发服务拿到的,那么我们是每个 CPU 获取一份?还是只有一个 CPU 获取,然后其他 CPU 共享这份媒体流?显然是第二种方式更优一些。通常每路媒体流都有一个流名称,可用通过将流名称转换成数字,比如 crc32,然后对 CPU 核数进行取模,选择一个 CPU,选定的 CPU 从中继分发服务获取媒体流,其它的 CPU 核从选定的 CPU 核共享媒体流。这是大体的分发模型,有几个细节大家需要重点考虑:
基于以上分发模型,用线上真实的媒体流进行评测,性能数据如下: 同时有 76 路媒体流进行分发,每路媒体流的平均码率在 300kbps 到 400kbps 之间,一台配置为 Intel® Xeon® Silver 4110 CPU @ 2.10GHz,32 核心,128G 内存,2Gbps 外网带宽的服务器,能够稳定的支持 4500 路拉流。
对于 1 对多的直播场景,上行的推流质量是非常重要的,上行推流不稳定会导致大面积的拉流体验比较差。比如上行推流链路有丢包或者乱序,如果控制不好,可能会导致拉流端大量的重传,降低性能。
这里可以引入转发控制模块,针对音频和视频,可以分别制定不同的策略。对于视频,当发现上行的媒体流存在丢包或者乱序时,暂时可以先不转发。什么时候继续转发呢?如果已经有序了,比如丢包恢复或者乱序的包过来了等,可以继续转发。另外一种情况是,丢包一直没有恢复,但是下一个 I 帧已经收到了,那么 I 帧之前的数据包可以全部丢弃,重新开始发送新的 I 帧。这里面涉及到帧完整性判断技术,具体可以参考 WebRTC 源码。
对于音频,有丢包或者乱序,暂时不转发,直到有序或者最多等待 min(10*rtt, 300ms)后开始转发。这里可能会引入一定的延迟,可以根据实际情况灵活设置。这里涉及到接收端的 RTT 探测技术,具体可以参考 WebRTC 源码。
下图是基于上述架构的一组 IDC 实际效果测试,连续测试 24 小时,4 个 IDC 未断流,延迟没增大,音视频完全同步。
最后,再做一个总结,对于研发而言,需要根据不同的业务场景,选择合适的架构模型。
关于高并发:
优秀的系统,绝非一日之功,需要我们保持耐心,以工匠精神,持续的打磨和精进,才能趋于至善!
问答环节:
1. 弱网优化可以多分享分享吗?
弱网优化一般的思路还是动态码率自适应、nack/fec、自适应动态缓冲区(neteq)等等,具体可以多参考 WebRTC 的源码。
2. 想问问老师直播里面的带宽,存储,转码成本都比较高,这块有好的控制方法吗?
带宽可以从降低码率的角度考虑,比如教育场景,PPT 和头像是可以分离的,PPT 不需要通过流来传输,这样可以极大的降低带宽。存储,可以对视频进行合理的压缩,另外很多云厂商提供的存储服务成本也还好。至于转码,是否一定需要实时转码?能否转到端上进行,比如端上推多流等等?
3. 想问问老师,音频协议这些 17、18 年开始就比较成熟了,最近几年比较值得关注的方向是什么?
你这里应该指的是音频的编解码吧,目前还是 opus、AAC 用的比较多,具体的前沿方向研究不多,声网出了一个开源的抗丢包音频编解码器 SOLO 可以关注下。随着 RTC 应用场景越来越丰富,这种抗弱网抗丢包的编码器会不会是一个重点方向
4. 请问怎么衡量 WebRTC 音视频质量,有哪些关键的指标可以参考,业界较为成熟的方案能否推荐一下。
主要还是延迟、卡顿率等,WebRTC 本身也采集了很多数据用于辅助分析这些指标,比如接收帧率、解码帧率、渲染帧率,丢包,抖动,发送 / 接收码率等。声网最近推出了一个体验质量标准 XLA,你可以关注下。
5. 请问你们在操作系统层做了优化吗?
没有做特别的调优,针对网卡调优过,主要是网卡多队列,具体要看你的服务器,有的是已经就调好了。
6. 一台机器有多少个 worker?
一般和机器的 CPU 核心数是相同的
7. 一台机器有多少个 worker,推流是单独的机器吧,那个机器性能测试的推流数应该是指流名数对吧?
一般和机器的 CPU 核心数是相同的,推流是单独的机器,推流数就是指同时进行推流的个数,也可以理解为流名数。
8. 没有房间的概念,教育方面的业务如何做实时互动,比如课件展示?
低延迟直播系统没有房间的概念,但是业务层有各个流关系的管理,也就是所谓的房间是业务来控制的。
9. 您好,我想问,内网丢包率不高的情况下,kcp 和 tcp 有区别吗?
没有实测过,如果完全不丢包或者丢包很低的情况,应该区别不大,但是跨地域的 IDC 之间的传输一般还是公网传输,毕竟专线的成本太高。
10. 主要开发语言是 c++ 吗?
智能调度系统、信令服务是 golang,核心的流分发系统是 c++
嘉宾介绍:
周赵鹏,作业帮直播技术负责人,负责公司长连接 & 实时消息分发、大直播、实时音视频等相关技术的研究和开发。近年来主要关注和研究高性能网络服务、高并发低延迟直播架构、多云服务融合架构、实时音视频通信、WebRTC 等技术。
领取专属 10元无门槛券
私享最新 技术干货