本文来自THEO网站的博客文章,原标题为LL-HLS Series: The Evloution of LL-HLS。主要内容为讨论低延迟HLS系列。
苹果公司的低延迟 HLS (LL HLS)的承诺是比标准 HLS 更低的延迟,并向后兼容非 LL HLS 的播放器。Mux 视频服务的承诺是“视频,在几秒钟内”。正如你将在本教程中所看到的,两家公司都达到了他们的目标,Mux 的 LL HLS 特别容易实现,延迟为 4-7 秒,比预期的要高一点,但与其他提供相同服务的公司一致。
本文来自THEO的行业研讨会,演讲者是THEO的CTO和创始人Pieter-Jan Speelmans。本文的主题是苹果最新推出的LL-HLS。
本文来自BITMOVIN,由Jameson Steiner编辑,是实时低延迟流媒体系列的最后一部分。
N(>=3)年前Adobe官宣了2020年底就不支持Flash了,最近发现非常多的朋友,到了真正完全不能用时,才考虑如何逃生,一顿狂问“没有Flash了怎么播放RTMP”,“该选HTTP-FLV还是WebRTC”,“用什么播放器播HTTP-FLV”。
有些人呐,真是不见棺材不落泪,N(>=3)年前Adobe官宣了2020年底就不支持Flash了,最近发现非常多的朋友,到了真正完全不能用时,才考虑如何逃生,在群里一顿狂问“没有Flash了怎么播放RTMP”,“该选HTTP-FLV还是WebRTC”,“用什么播放器播HTTP-FLV”。 本文只发一次,完整解决方案再啰嗦一遍,恕我不在群里回答这种问题了,自己花时间好好看吧,身为搞直播的研发工程师,总不能火烧了眉毛才开始想办法吧,各位耗子尾汁吧。 看完视频,请看详细方案。 没有Flash了怎么做直播? 答
本文是来自WWDC(苹果全球开发者大会) 2019的演讲,演讲的作者Roger Pantos,HLS的技术主管,本次演讲主题是介绍低延迟HTTP实时流(Low-Latency HLS)的实现和效果以及如何使用低延迟HLS进行开发。
在未知或不断变化的网络条件下的操作一直是自适应比特率流媒体系统自 1990 年代诞生以来一直试图解决的最基本挑战之一。这个挑战今天仍然存在,尽管在某种程度上简化了设置,允许使用基于 HTTP 的自适应流 (HAS) 架构。在这样的架构中,网络适配逻辑驻留在流媒体客户端中,有效地驱动媒体流片段的选择和加载。在过去的十年中,已经提出了许多先进的方法来设计流选择算法。这包括基于吞吐量的方法、基于缓冲区级别的启发式、控制理论方法以及机器学习算法。
HLS和DASH是两大基于HTTP的流媒体通信协议。随着人们对低延迟需求的不断提高,这两个协议都发展出了各自的多个低延迟版本。在Mile High Video 2019(MHV/2019)上,来自Akamai的Will Law做了题为“LL-HLS LHLS DASH-LL, Challenges and differences”的演讲,介绍了这三个低延迟协议异同。
HLS.js 是一款由苹果公司开发的,在浏览器中播放 HLS 的视频播放器。在最近,苹果发布了 Safari 浏览器中的低延时 HLS(LL-HLS),同时在其他浏览器中实现了基于 HLS.js 的播放器。
在低延迟HLS或是WebRTC之间做选择时,哪种协议能够带来最佳的实时流体验?因为协议决定了编码视频数据通过网络连接传输的速度,所以在两者之间做出选择是非常重要的。
对大多数的低延时 HLS 而言,他们正式开始发展的时间可以说是在 2020 年 6 月。
原文链接 / https://www.red5pro.com/blog/5-factors-in-choosing-low-latency-hls-vs-webrtc/
点击上方“LiveVideoStack”关注我们 作者:Anthony Dantard 翻译:Alex 技术审校:袁荣喜 ▲扫描图中二维码或点击阅读原文▲ 了解音视频技术大会更多信息 ---- 低延迟协议 影音探索 #013# 用户对服务的期望在不断攀升,并逐渐出现了不满情绪。由于有了YouTube和Netflix这样的视频服务,我们都希望在观看点播视频时获得超快的下载时间和流畅的播放体验。可能不太明显的是,无论我们是否意识到,这种期望都正在慢慢地向实时音频通信和直播应用转移。 在api.vid
https://mux.com/blog/the-community-gave-us-low-latency-live-streaming-then-apple-took-it-away/
使用在线流媒体平台做直播时,实时体验至关重要:看世界杯时,您还边正在聚精会神地盯着C罗的金刚腿等着罚球,隔壁老王就传出进球欢呼声,您肯定无比郁闷。视频播放领域的新锐——THEOplayer,不久前写了三个不错的系列文章,详细分析了造成视频传输延迟的原因,介绍了两个缩小延迟的解决方案:CMAF和LHLS,为提升直播观看体验提供了思路。话不多说,各位热爱媒体技术的小伙伴们,Let’s Go~
HTTP Live Streaming(HLS)是Apple公司主导提出并实现的基于HTTP的自适应码率流媒体通信协议(RFC8216),作为其产品QuickTime,Safari,OS X和iOS的一部分,在Apple的产品生态链中占有重要地位。同时,越来越多的第三方厂商的产品,如Microsoft Edge,Firefox和 Google Chrome、安卓操作系统也都实现了对HLS的支持。而且有大量的流媒体服务器都支持HLS。
在WWDC 2019上,Apple 依照惯例宣布了一系列的软件更新。并且像过去4年的传统一样,Roger Pantos上台宣布了HTTP直播视频流(HLS)规范的最新变化,今年的变化旨在减少实时视频流的延迟,但这样做的代价是什么呢?
对于指数位宽和尾数位宽,为每一个浮点数都具有的参数,不用过多解释;对于精确度,具有多种选项,每种选项具有不同的精度-代价折中,如下表所示:
高层次综合(High-level Synthesis)简称HLS,指的是将高层次语言描述的逻辑结构,自动转换成低抽象级语言描述的电路模型的过程。
http://www.streamingmedia.com/Articles/Editorial/Featured-Articles/SME-2018-IBM-Cloud-Videos-Scott-Grizzle-Talks-Protocols-Codecs-and-Latency-125083.aspx
本文来自WOWZA media systems的网络研讨会,与会者有来自WOWZA的首席技术官兼联合创始人Charlie Good,解决方案工程副总裁Barry Owen,以及销售工程总监Tim Dougherty。研讨会的主要内容是深入回顾2020年低延迟流媒体协议以及各种技术的比较。
2020 年发布了端到端延迟在 2 秒范围内的两个 HTTP 自适应流 (HAS) 标准的更新:低延迟 DASH (LL-DASH) 和低延迟 HLS (LL-HLS)。这些标准和操作模式都是独立开发的,虽然它们可以在内容交付系统中部署为单独的流,但如果这两种流格式都可以统一由一组媒体对象提供服务,那么打包、源、CDN 和播放器等模块都会获得性能和成本的增益。
原标题:Using LL-HLS with Byte-range Addressing to Achieve Interoperability in Low Latency Streaming
传送门:https://segmentfault.com/a/1190000022994032
近些年直播行业可谓是越来越火,英雄联盟的赛事直播、罗老师的直播带货、电商平台的购物节这些动辄就是几千万的流量,都是大家可以在日常生活中接触到的。可是无论哪种类型的直播,延时是直播过程中需要重点关注的一个点。直播实现低延迟,是对大部分直播产品的要求,也是提升直播产品用户体验最有效的一个方法。特别是体育赛事、直播互动、在线答题等场景对低延迟要求更高。今天简单跟大家介绍下如何直播如何实现低延迟。
今天给大侠带来FPGA Xilinx Zynq 系列第二十八篇,讲述Vivado HLS: 近视之算法综合等相关内容,本篇内容目录简介如下:
想要优化延迟,可Latency到底是多少?延迟始终是媒体内容传输的一个重要关注点,人们也在不断尝试用新的方法来优化延迟,本文参考AWS的一些新技术,介绍了延迟的定义,以及如何具体测量延迟,给出了延迟的量化概念。
原文:https://www.fiercevideo.com/tech/cmaf-coming-and-it-could-dramatically-improve-livestreaming
我们最常见的流媒体协议的RTMP协议,在网络和硬件正常好的情况下,延迟可以达到1-3s左右,它也是目前主流视频直播中最常见的协议,像我们的安防流媒体服务器也支持这种协议的视频流输出。
本文来自Streaming Media West Connect,讨论的主题是CMAF和OTT的未来。主持人是Streaming Media的特约编辑Jan Ozer,小组成员包括Akamai科技首席架构师Peter Chave,Neflix高级软件工程师Cyril Concolato,迪士尼流媒体服务副总裁Bill Zurat和Hulu的软件开发副总裁Nick Brookins。他们所在的公司已经在编码和分发流程中实施了CMAF。
到目前,h5似乎已经成为品牌宣传最重要的表现方式。h5技术开发简单,研发周期短,且成本低廉。尤其强化了web网页的表现性能,通过h5技术搭建的直播系统不仅能够在网页实现高清流畅播放,还能加入很多的交互功能。下面,我们就针对h5直播源码做一些技术扫盲。
在本系列上一篇文章《定义和测量延迟》中,介绍了为什么延迟是OTT传输的一个问题以及如何测量端到端延迟中不同传输步骤所占的延迟比重。 本文接下来介绍可能的延迟优化,从编码,打包,CDN交付以及视频播放器这些过程,通过调整其中的参数,可以为观众提供一个经过精心优化的低延迟直播流。
其实本人一直都想自己简单做一套直播(包括移动端和服务端)的开发测试,但是之前一直做得比较迷茫。最近偶然间来了灵感,瞬间解除了我很多疑惑。
为什么要在这个时候探索flv.js做直播呢?原因在于各大浏览器厂商已经默认禁用Flash,之前常见的Flash直播方案需要用户同意使用Flash后才可以正常使用直播功能,这样的用户体验很致命。 在介绍flv.js之前先介绍下常见的直播协议以及给出我对它们的延迟与性能所做的测试得出的数据。 如果你看的很吃力可以先了解下音视频技术的一些基础概念。 常见直播协议 RTMP: 底层基于TCP,在浏览器端依赖Flash。 HTTP-FLV: 基于HTTP流式IO传输FLV,依赖浏览器支持播放FLV。 WebSocke
随着直播行业大火,游戏、乐秀、教育、发布会等直播类产品层出不穷,能够满足各方人员的需求。在直播中,总能在其中找到适合自己的产品内容。喜欢玩游戏的可以看游戏直播,想学点工作技能的,也可以观看大牛现场授课,甚至你能通过直播跟各大主播实时互动。看了这么多直播,你好像发现了一个小秘密,不同类型的直播延时有所不同,像与主播实时互动的一般延迟比较短,而相对的,在线教育这一类就比较长了。这就是我今天想给大家讲解的一些东西,除了网络环境以外,对延时影响较大的就是直播架构中选择的直播协议。今天我们就跟大家讲一下常见的直播协议。
Dev Club 是一个交流移动开发技术,结交朋友,扩展人脉的社群,成员都是经过审核的移动开发工程师。每周都会举行嘉宾分享,话题讨论等活动。 本期,我们邀请了腾讯SNG Web前端开发工程师——吕鸣,为大家分享《H5 视频直播那些事》。 分享内容简介: 目前视频直播,尤其是移动端的视频直播已经火到不行了,基本上各大互联网公司都有了自己的直播产品,所以对于直播的一些基本知识和主要技术点也要有所了解,本次分享就向大家介绍一下其中的奥秘。 内容大体框架: 怎样利用H5来播放直播视频 怎样录制直播视频 怎样实时上传
在 HLS 中描述组合任务非常重要,因为它直接影响整个系统的性能。这里我举一个简单的例子来解释一下这个问题。
本文是来自FOSDEM 2020 Open Media devroom的演讲,演讲者是Collabora的Olivier Crête。从2007年开始,他就一直是一名活跃的GStreamer开发人员,最初从事VoIP和视频通话,而最近从事各种多媒体项目。演讲主题是如何选择视频网络流协议。
1. 视频直播 视频直播的5个关键的流程:录制->编码->网络传输->解码->播放 视频直播平台一般包括推流端,后台系统和客户端。通常包括直播内容采集、直播后台系统和直播内容播放三个模块。 1)内容采集:采集的方式有很多,从一般几十块PC摄像头到几十万的专业录制编码设备,还有移动端的手机前后置摄像头;分布式推流:这里是比较成熟的架构,用户在推流之前会通过名字服务,一般是DNS智能解析或是自有按IP调度系统获取最靠谱的推流节点,然后把流上传到服务器。 2)直播后台系统:在分布式推流节点“接入”了用户流之后,后续一系列的分发、转码、截图、录制、存储等构成了直播后台系统;这里根据不同的业务需求,需要有不同的后台服务来支撑。 3)直播内容播放:这个就比较好理解了,一般输出是PC屏幕、手机、现在还有VR头盔。 2. 移动直播编解码 推流编码: 推荐Andorid4.3(API18)或以上使用硬编,以下版本使用软编;iOS使用全硬编方案; 播放解码:Andorid、iOS播放器都使用软解码方案,经过我们和大量客户的测试以及总结,虽然牺牲了功耗,但是在部分细节方面表现会较优,且可控性强,兼容性也强,出错情况少,推荐使用。 软硬编解码优缺点对比:
今天给大侠带来FPGA Xilinx Zynq 系列第二十六篇,开启十四章,讲述高层综合等相关内容,本篇内容目录简介如下:
RTMP 协议为流媒体而设计,在推流中用的比较多,同时大多 CDN 厂商支持RTMP 协议。
在我们前几章的讨论中,我们已经详细探讨了LNMP、缓存与消息队列,以及负载均衡的各种应用场景和实现方式。这些技术都是构建高效、可扩展和可靠的网络服务的重要工具。然而,随着互联网技术的不断发展,我们面临的挑战也在不断变化和升级。在这一章中,我们将把视线转向更为前沿的技术领域,深入研究CDN、流媒体和边缘计算,并从应用场景的角度进行详细介绍。
移动端发展速度已经不用科普了,移动端的流媒体用什么分发?SRS为何要重写HLS和HTTP?为什么说SRS才是标准移动端的流媒体服务器? 移动端是个可以好好装逼的领域,对于移动端流媒体更加是可以一装再装逼。这篇逼只是一个开头,这篇专门讲讲移动端会有哪些球会推出来。 接下来可能会陆续的装如下的逼: M3U8/TS到底有什么难的?坑有多大,坑里有多少个球? 除HLS外,HTTP-FLV/MP3也是移动端需要的吗? 为何要为移动端重写HTTP服务器?这个球有多大? 移动端直播和点播P2P的实现。 先了解个大概吧
EasyNVR视频边缘计算网关是由TSINGSEE青犀视频研发的视频流媒体软硬一体产品。只要设备支持标准的RTSP/Onvif协议,都可以接入至EasyNVR进行直播、录像、检索与回放服务,并且EasyNVR支持多协议分发,包括RTSP、HTTP-FLV、RTMP、WS-FLV、HLS等格式的视频流,能满足用户的多样化场景需求。
今天来介绍一下HLS协议,这个协议是由苹果公司提出并推广开来的。来一段维基百科的定义。
Photo by Kaboompics .com from Pexels 所谓流媒体传输的”圣杯”指的是一组文件被安全地传输到所有目标端点。最有可能帮助实现这一目标的“候选”是通用媒体应用程序格式(CMAF)。尽管目前CMAF还不能将”圣杯”交付给所有客户,但它所具备的互操作性的DNA,将极大地简化发布者(publishers)和播放器(players)之间的兼容性。最终,它可能传递出”圣杯”。 文 / Jan Ozer 译 / 元宝 审校 / 赵军 原文 http://www.streamingmedi
本文来自streaming media的研讨会,主题是:低延迟仍然是一个挑战。主持人是流媒体视频联盟执行总监Jason Thibeault。
领取专属 10元无门槛券
手把手带您无忧上云