利益相关:我们团队也支持过董明珠的直播,还支持过1000万人同时在线观看的直播。
在具体说怎么保障董明珠直播之前,先回答一下题主的问题:5G都要来了,看直播为什么还会卡?
关于董明珠第一次直播翻车,大家众说纷纭。咱们尚且不论是抖音的问题,还是格力的网络问题,我就从保障多场直播的经验,来说说自己的想法。
一般来说,直播卡顿可能跟网络环境、直播设备、平台因素等有关系。
(1)网络环境
网络是影响直播卡顿比较关键的因素。一般在直播现场,都会有有线、无线(WiFe,WiFi)、4G三种网络。
直播时建议优先选择有线网络,最好是专线网络。
接着是无线网络,可能会受到距离、环境等使用因素的影响。比如你躺在家里耍手机,但是WiFi信号和你隔了三堵墙,是不是看罗翔法考都不香了?在做专业的直播驻场时,最好让设备靠近WiFi信号源,避免信号穿墙或者金属物遮挡,也需要避免其他设备接入WiFi抢网速,妈妈再也不担心我网不卡了!
如果是使用4G网络,在手机信号不好的地方(比如大山里),那么网速很可能直接退回到3G时代。最好是在手机信号好的地方直播,才能比较好防止网络波动。
除了不同的网络环境,卡顿还和网络上下行速度有关系。上行就是咱们把文件上传到某度网盘的操作,相当于主播把视频推流出来,下行就是咱们的下载速度,相当于用户观看主播视频的速度。
如果主播网络比较差,那么他推流出来的直播画面就会不稳定;观众端同理,如果你手机或电脑网络不好,速度不够,看视频也会卡卡卡卡卡。
(2)直播设备性能
无论用来直播的设备是手机、相机,清晰度越高,给硬件编解码处理的压力就越大。想直接解决这个问题,需要你有钞能力,来换设备,设备越专业就越稳定,出错和失灵的概率也更小。
董明珠直播的现场部分摄像设备)
还有一种方法,就是降低直播推流的码率,说直白点就是降低清晰度,用流畅或者标清的画质播放。其它做法还有GPU加速、增大缓冲等。
(3)直播平台技术和带宽
2月初的时候,全国学生一起在家上网课,很多学生用钉钉看直播就会卡。后来,钉钉紧急扩容了很多服务器,卡顿的现象才有所缓解。
这就是平台带宽储备不足所导致的卡顿,如果观看人数并发很高,服务器压力就很大,传输就会变慢,导致网络卡顿。比如你的卡车载重是100吨,现在给你150吨的货,压力就非常大了。
除了服务器带宽方面的原因,卡顿还有可能跟平台底层技术架构有关,如果没有做过专门的传输优化,也会出现传输过程中的卡顿问题。
总结一下,咱们看直播卡的原因,可能跟网络环境、直播设备、平台带宽储备和技术架构等因素关系。
结论:5G目前还处于初步商用阶段,在落地成熟后,卡顿的问题可以得到很大改善。
我们看看5G的三大特性,高速率(eMBB)、大容量(mMTC)、低延时+高可靠(URLLC)。其中高速率(eMBB)、低延时和高可靠(URLLC)是改善卡顿的关键。
首先说高速率,这是大家体验最直观的一个特点了,就是快!无论是网络上行还是下行,速度都远超4G。
去年新京报记者做过北京5G速度的测试,5G的下行速率平均538.5Mbps,较4G下行速率普遍快10倍以上,1分钟内可以下载43首歌。
从上行速度看,5G上行也是4G的好几倍。这意味着什么呢?
就是直播传输和观看的速度都比4G快很多,同样的网络环境下,同时间内5G传输的信息量更大,网速提高了,卡顿也会得到很大改善。
接着是低延时和高可靠(URLLC),这里我们主要说高可靠性。
我们在看直播的时候,网络的传输并不是实时同步的,从主播端到我们观看直播,其中涉及了一个很长的传输链路,所以画面有一定的延时,我们和主播的互动会有时间差。
而5G URLLC的能够实现端到端<5ms内的延时,同时传输协议的可靠性比4G更强,对于自动驾驶、工业应用和控制、远程培训、远程手术以及其他高度延迟敏感型业务的广泛应用非常关键。
URLLC就意味着传输更稳定、直播更实时。因此,随着5G技术的成熟,很有可能会改善目前4G网络下的卡顿,并且能够真正实现主播和用户的实时互动。
接下来给大家讲讲咱们团队是怎么保障董明珠直播全程不卡顿的。整个环节是比较严谨的工程,从直播硬件准备、直播测试预演、直播现场支持方面都要做好仔细的考量,才能确保万无一失。
无论是团队配置,还是专业的设备,都不可或缺。
我们会从直播硬件准备、直播测试预演、直播现场支持这几个方面入手。
在直播硬件方面,我们会在网络、设备、电源这3个方面入手做准备:
1.网络:主要是给直播推流准备专线,再加上多网聚合路由器,这个东西可以把多种网络整合到一起,实现速度叠加。同时也会准备独立WiFi作为备用方案。
多网聚合器可以有效避免弱网环境下出现的卡顿。比如之前我们在山区里做的无人机航拍直播,能够实现稳定直播图传。
还有在高铁上实现直播,在网络不太稳定的情况下,确保稳定清晰的画面。
2.专业设备及备用方案:使用专业的高性能设备, 比如导播台、编码器、摄像机等,同时也会准备多套专业硬件用作备份。
3.电源:不间断电源(UPS),如果出现断电情况,能够保证设备电力正常供应一段时间,给维护抢修争取宝贵时间。
同时,我们会成立专门的直播保障小组,从不同维度进行直播保障。里面包含了项目经理、研发人员、运维人员和执行人员,不同职能的人员负责不同模块,项目经理负责把控整个直播的进度和质量交付。
1、直播环境保障:在正式开始直播前,整个团队会对直播进行多次测试,对宽带、音响设备、投影设备、摄像设备等进行检查和调试,确保硬件能够正常使用。
2、网络保障:提前沟通现场网络准备情况,并按实际直播条件做好网络测试。根据实际需求,准备多路聚合4G热点及推流编码器。对于海外推流的情况,除了以上两点准备,根据实际需求,可以提供卫星线路传播方案。
3、突发情况预案:针对音视频卡断、断网等情况做好应急方案,同时也会有双系统备份,一旦主系统发生异常,可用备用系统替代,是任何单一系统无法做到的高保障性。
到了现场,保障团队人员会和直播筹备团队,策划公司、搭建公司、摄像团队及时顺畅地沟通,以配合直播活动的顺利进行。同时,和后端团队,运维团队紧密配合,对可能出现的问题有预见能力,把可能影响直播的不良因素和影响提前排除。
直播除了保证流畅不卡顿,还有一个关键点,就是高并发下是否还能保证流畅?即便能保证100万人同时观看流畅,但1000万人呢?
今年2月10日,我们成功保障了并发数超过1129万人的直播。
本来我们是对这个情况有一定准备的,但没想到这个流量洪峰远超我们的预期范围。同时有1000万人涌入平台,服务器压力陡增,超过了系统阈值。
1、首先,我们系统检测到了这波巨大流量,服务器自动进行扩容。
这里有个技术叫动态负载均衡,即便出现高峰访问,服务器也能够自己做调整。面临在直播观看时产生的海量数据,我们同步对日志系统也进行了大规模扩容,确保所有观看、行为数据能够准确及时更新,为客户业务运营调整做好数据支撑。
2、其次,我们专门成立了重保小组。
在整个直播传输的架构上进行过底层技术优化,在支撑1100万级别的并发的同时,还能够保证网络视频传输清晰流畅。
3、此外,我们准备了多套CDN传输节点和容灾备份。
这样做,紧急时刻可以切换至备用线路,基本上不会出现直播不可用的情况。
除此之外,覆盖全球的节点也是保障直播流畅的关键。这里给大家讲讲节点。
一般来说,我们在网站看视频,都是需要服务器传输数据的,如果服务器距离你比较远,那么有可能传输时间会比较长。一般解决这个问题,我们会使用CDN加速。CDN节点会部署在多个地方,把服务器上的内容备份到上面,如果你要看视频,网站就会自动从最近的CDN节点读取数据,这样观看直播速度就更快、更流畅。
基于以上的平台级技术支撑,我们成功保障了多场百万甚至千万级并发的直播。
1.为什么5G都要来了,直播还会卡?
2.想要保障直播不卡顿,我们是怎么做的?
3.怎么保障千万级的直播并发不卡顿?
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。