前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >视频直播之基础原理

视频直播之基础原理

作者头像
全栈程序员站长
发布2022-09-15 10:51:48
2.8K0
发布2022-09-15 10:51:48
举报

大家好,又见面了,我是你们的朋友全栈君。

SDK(Software Development Kit): 软件开发工具包 CDN(Content Delivery Network):内容分发网络

涉及的技术:

  • 采集
  • 处理
  • 编码
  • 封包
  • 推流
  • 播放

RTMP(Real Time Messaging Protocol,实时消息传送协议),是Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的开放协议。

  • 优点:主流CDN支持,市面上绝大多数的直播产品采用;协议简单易实现
  • 缺点:基于TCP协议开销大;Adobe私有协议

直播服务器(流媒体服务器): 硬件方面:高性能CPU,大容量内存和硬盘 软件方面:大宽带 服务商:

  • 七牛、腾讯、网易
  • red5(jave)和FMS商用
  • crtmpserver(开源)
  • Nginx + RTMP插件(开源)

直播原理:把主播录制的视频,推送到服务器,再由服务器分发给观众观看。 直播环节:采集-滤镜处理-编码-推流-CDN分发-拉流-解码-播放-聊天互动

  • 推流端(采集、美颜处理、编码、推流)
  • 服务器处理(转码、录制、截图、鉴黄)
  • 播放器(拉流、解码、渲染)
  • 互动系统(聊天室、礼物系统、赞)

了解流媒体(直播需要用到流媒体)

  • 流媒体开发:网络层(socket或st)负责传输,协议层(rtmp或hls)负责网络打包,封装层(flv、ts)负责编解码数据的封装,编码层(h.264和aac)负责图像音频压缩。
  • 帧:每帧代表一幅静止的图像
  • GOP:(Group of Pictures)画面组,一个GOP就是一组连续的画面,每个画面都是一帧一个GOP就是很多帧的集合;直播的数据其实是一组图片,包括I帧、P帧、B帧,当用户第一次观看的时候,会寻找I帧,而播放器会到服务器寻找到最近的I帧反馈给用户。因此,GOP Cache增加了端到端延迟,因为它必须要拿到最近的I帧,GOP Cache的长度越长,画面质量越好。
  • 码率:图片进行压缩后每秒显示的数据量
  • 帧率:每秒显示的图片数。影响画面流畅度,与画面流畅度成正比:帧率越大,画面越流畅;帧率越小,画面越有跳动感。 由于人类眼睛的特殊生理结构,如果所看画面之帧率高于16的时候,就会认为是连贯的,此现象称之为视觉暂留。 并且当帧速达到一定数值后,再增长的话,人眼也不容易察觉到有明显的流畅度提升了。
  • 分辨率:(矩形)图片的长度和宽度,即图片的尺寸
  • 压缩前的每秒数据量:帧率x分辨率(单位应该是若干个字节)
  • 压缩比:压缩前的每秒数据量/码率(对于同一个视频源并采用用一种视频编码算法,则:压缩比越高,画面质量越差。)
  • 视频文件格式:文件的后缀,比如:.wmv,.mov,.mp4,.mp3,.avi,主要作用:一个视频文件往往会包含图像和音频,还有一些配置信息(如图像和音频的关联,如何解码它们等):这些内容需要按照一定的规则组织、封装起来。注意:会发现封装格式跟文件格式一样,因为一般视频文件格式的后缀名即采用相应的视频封装格式的名称,所以视频文件格式就是视频封装格式。
  • 视频封装格式和视频压缩编码标准:就好像项目工程和编程语言,封装格式就是一个项目的工程,视频编码方式就是编程语言,一个工程可以用不同语言开发。

采集视频、音频

  • 采集视频、音频编码框架:‘AVFoundation’-ACFoundation是用来播放和创建实时的视听媒体数据的框架,同时提供Objective-C接口来操作这些视听数据,比如编辑、旋转,重编码
  • 视频、音频硬件设备   * * CCD:图像传感器:用于图像采集和处理的过程,把图像转换成电信号  * * 拾音器:声音传感器:用于声音采集和处理的过程,把声音转换成电信号  * * 音频采集数据:一般都是PCM格式  * * 视频采集器:一般都是YUV、或RGB格式,采集到的原始音视频的体积是非常大的,需要经过压缩技术处处理来提高传输效率。

视频处理(美颜,水印) *视频处理原理:因为视频最终也是通过GPU,一帧一帧渲染到屏幕上的,所以我们可以利用OpenGL ES,对视频帧进行各种加工,从而视频各种不同的效果,就好像一个水龙头流出的水,经过若干节管道,然后流向不同的目标。现在的各种美颜和视频添加特效的app都是利用GPUImage这个框架实现的。

  • 视频处理框架   *GPUImage:是一个基于OpenGL ES的一个强大的图像/视频处理框架,封装好了各种滤镜同时也可以编写自定义的滤镜,其本身内置了多大120多种常见的滤镜效果。   *OpenGL:OpenGL(全写Open Graphics Library)是个定义了一个跨编程语言、跨平台的编程接口的规格,它用于三维图像(二维的亦可)。OpenGL是个专业的图像程序接口,是一个功能强大,调用方便的底层图形库。   *OpenGL ES:OpenGL ES(OpenGL for Embedded System)是OpenGL三维图形API的子集,针对手机、PDA和游戏主机等嵌入式设备而设计。

视频编码解码

  • 视频编码框架 *  * FFmpeg:是一个跨平台的开源视频框架,能实现如视频编码,解码,转码,串流,播放等丰富的功能。其支持的视频格式以及播放协议非常丰富,几乎包含了所有音视频编码解码、封装格式以及播放协议。   * * -Libswresample:可以对音频进行重采样,rematrixing以及转换采样格式等操作。   * * -Libavcodec:提供了一个通用的编解码框架,包含了许多视频,音频,字幕流等编码/解码器。   * * -Libavformat:用于对视频进行封装/解封装。   * * -Libavutil:包含一些共用的函数,如随机数生成,数据结构,数学运算等。   * * -Libswscale:用于视频图像缩放,颜色空间转换等。   * * -Libavfilter:提供滤镜功能。 *  *X264:把视频原数据YUV编码压缩成H.264格式 *  *VideoToolbox:苹果自带的视频硬解码和硬编码api,但是在IOS8之后才开放。 *  *AudioToolbox:苹果自带的音频硬解码和硬解码API
  • 视频编码技术 *  * 视频压缩编码标准:对视频进行压缩(视频编码)或者解压缩(视频解码)的编码技术,比如MPEG,H.264,这些视频编码技术是压缩编码视频的。主要作用是将视频像素数据压缩成为视频码流,从而降低视频的数据量。如果视频不经过压缩编码的话,体积通常是非常大的,一部电影可能就要上百G的空间。注意:最影响视频质量的是其视频编码数据和音频编码数据,跟封装格式没有多大关系。 *  *MPEG: 一种视频压缩方式,它采用了帧间压缩,仅存储连续帧之间有差别的地方,从而达到较大的压缩比。 *  *H.264/AVC:一种视频压缩方式,采用事先预测和与MPEG中的P-B帧一样的帧预测方法压缩,它可以根据需要产生适合网络情况传输的视频流,还有更高的压缩比,有更好的图像质量。注意如果从单个画面清晰度比较,MPEG4有优势,从动作连贯性上的清晰度,H.264有优势;由于264的算法更加复杂,程序实现繁琐,运行它需要更多的处理器和内存资源。因此,运行264对系统要求比较高的;由于264的实现更加灵活,它把一些实现留给了厂商自己去实现,虽然这样给实现带来了很多好处,但是不同产品之间互通成了很大的问题,造成了通过A公司的编码器编出的数据,必须通过A公司的解码器去解这样尴尬的事情。 *  * H.265/HEVC:一种视频压缩方式,基于H.264,保留原来的某些技术,同时对一些相关的技术加以改进,以改善码流、编码质量、 延时和算法复杂度之间的关系,达到最优化设置。H.265 是一种更为高效的编码标准,能够在同等画质效果下将内容的体积压缩得更小,传输时更快更省带宽。 *  * I帧:(关键帧)保留一副完整的画面,解码时只需要本帧数据就可以完成(因为包含完整画面)。 *  * P帧(差别帧)保留这一帧跟之前帧的差别,解码时需要用之前缓存的画面叠加上本帧定义的差别,生成最终画面(P帧没有完整画面数据,只有与前一帧的画面差别的数据)。 *  * B帧(双向差别帧)保留的是本帧与前后帧的差别,解码B帧,不仅要取得之前的缓存画面,还要解码之后的画面,通过前后画面的与本帧数据的叠加取得最终的画面。B帧压缩率高,但是解码时CPU会比较累。 *  * 帧内(Intraframe)压缩:当压缩一帧图像时,仅考虑本帧的数据而不考虑相邻帧之间的冗余信息,帧内一般采用有损压缩算法。 *  * 帧间(Interframe)压缩:时间压缩(Temporal compression),它通过比较时间轴上不同帧之间的数据进行压缩。帧间压缩一般是无损的。 *  * muxing(合成):将视频流、音频流甚至是字幕流封装到一个文件中(容器格式FLV,TS),作为一个信号进行传输。
  • 音频编码技术 *  * AAC,mp3: 这些属于音频编码技术,压缩音频用。
  • 码率控制 *  * 多码率:观众所处的网络情况是非常复杂的,有可能是wifi,有可能4G、3G、甚至2G,那么怎么满足多方需求呢?多搞几条线路,根据当前网络环境自定义码率。例如常常看见视频播放软件中的1024,720,高清,标清,流畅等,指的就是各种码率。
  • 视频封装技术 *  * TS:一种流媒体封装格式,流媒体封装有一个好处,就是不需要加载索引再播放,大大减少了首次载入的延迟,如果片子比较 长,mp4文件的索引相当大,影响用户体验。为什么要用TS:这是因为两个TS片段可以无缝拼接,播放器能连续播放。 *  * FLV: 一种流媒体封装格式,由于它形成的文件极小、加载速度极快,使得网络观看视频文件成为可能,因此FLV格式成为了当今主流视频格式。

推流

  • 数据传输框架 *  * librtmp:用来传输RTMP协议格式的数据
  • 流媒体数据传输协议 *  * RTMP: 实时消息传输协议,Adobe System公司为Flash播放器和服务器之间音频、视频和数据传输开发的开放协议,因为是开放协议所以都可以使用。RTMP协议用于对象、视频、音频的传输。这个协议建立在TCP协议或者轮询HTTP协议之上。RTMP协议就像一个用来装数据包的容器,这些数据可以是FLV中的视音频数据。一个单一的连接可以通过不同的通道传输多路网络流,这些通道中的包都是按照固定大小的包传输的。 *  * chuck 消息包 *  * 推流的过程:建立TCP连接–建立RTMP连接以及发送各种控制指令–获取原始视频数据和音频数据–对原始视频数据和音频数据进行压缩编码(实现音视频数据的编码,视频编码成h264,音频编码成aac)–对编码后的视频数据和音频数据进行打包–发送打包后的音频和视频数据

流媒体服务器

  • 常用服务器 *  * SRS:一款国人开发的优秀开源流媒体服务器系统 *  * BMS:也是一款流媒体服务器系统,但不开源,是SRS的商业版,比如SRS功能更多 *  * nginx: 免费开源web服务器,常用来配置流媒体服务器
  • 数据分发 *  * CDN: (Content Delivery Network),即内容分发网络,将网站的内容发布到最接近用户的网络“边缘”,使用户可以就近取得所需的内容,解决Internet网络拥挤的状况,提高用户访问网站的响应速度。 *  * CDN :代理服务器,相当于一个中介 *  * CDN工作原理:比如请求流媒体数据:1.上传流媒体数据到服务器(源站)–2.源站存储流媒体数据–3.客户端播放流媒体,向CDN请求编码后的流媒体数据–4.CDN的服务器响应请求,若节点上没有该流媒体数据存在,则向源站继续请求流媒体数据;若节点上已经缓存了该视频文件,则跳到第6步–5.源站响应CDN的请求,将流媒体分发到相应的CDN节点上–6.CDN将流媒体数据发送到客户端。 *  * 回源:当用户访问某一个URL的时候,如果被解析到的那个CDN节点没有缓存响应的内容,或者是缓存已经到期,就会回到“源站”去获取搜索。如果没有人访问,那么CDN节点不会主动去“源站”拿。 *  * 带宽:在固定的时间可以传输的数据总量,比如64位、800MHZ的前端总线,它的数据传输率就等于64bit x 800MHz / 8(Bytes)=6.4GB/s. *  * 负载均衡:由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。均衡负载能够平均分配客户请求到服务器列阵,籍此提供快速获取重要数据,解决大量并发访问服务问题。这种群集技术可以用最少的投资获得接近于大型主机的性能。 *  * QoS(带宽管理): 限制每一个组群的带宽,让有限的带宽发挥最大的效用。

拉流

  • 直播协议选择:即时性要求较高或有互动需求的可以采用RTMP,RTSP;对于有回放或跨平台需求的,推荐使用HLS。
在这里插入图片描述
在这里插入图片描述

*  * HLS:由Apple公司定义的利用实时流传输的协议,HLS基于HTTP协议实现,传输内容包括两部分,一是M3U8描述文件,二是TS媒体文件。可实现流媒体的直播和点播,主要应用在IOS系统。       * HLS是以点播的技术方式来实现直播       * HLS是自适应码率流播,客户端会根据网络情况自动选择不同码率的视频流,条件允许的情况下使用高码率,网络繁忙的时候使用低码率,并且自动在二者间随意切换。这对移动设备网络状况步稳定的情况下保障流畅播放非常有帮助。       * 实现方法是服务器提供多码率视频流,并且在列表文件中注明,播放器根据播放进度和下载速度自动调整。 *  * HLS与RTMP对比:HLS主要是延时比较大,RTMP主要优势在于延时低       * HLS协议的小切片方式会生成大量的文件,存储或处理这些文件会造成大量资源浪费       * 相比使用RTSP协议的好处在于,一旦切分完成,之后的分发过程不需要额外使用任何专门软件,普通的网络服务器即可,大大降低了CDN边缘服务器的配置要求,可以使用任何现成的CDN,而一般服务器很少支持RTSP。 *  * HTTP-FLV: 基于HTTP协议流式的传输媒体内容       * 相对于RTMP,HTTP更简单和广为人知,内容延迟同样可以做到1~3秒,打开速度更快,因为HTTP本身没有复杂的状态交互。所以从延迟角度来看,HTTP-FLV要优于RTMP。 *  * RTSP:实时流传输协议,定义了一对多应用程序如何有效地通过IP网络传送多媒体数据 *  * RTP:实时传输协议,RTP是建立在UDP协议上,常与RTCP一起使用,其本身并没有提供按时发送机制或其它服务质量(QoS)保证,它依赖于底层服务去实现这一过程。 *  * RTCP:RTP的配套协议,主要功能是为RTP所提供的服务质量(QoS)提供反馈,收集相关媒体连接的统计信息,例如传输字节数,传输分组数,丢失分组数,单向和双向网络延迟等等。

解码

  • 解封装   * demuxing(分离):从视频流、音频流,字幕流合成的文件(容器格式(FLV,TS)中,分解出视频、音频或字幕,各自进行解码。
  • 音频编码框架   * fdk_aac:音频编码解码框架,PCM音频数据和AAC音频数据互转
  • 解码介绍   * 硬解码:用GPU来解码,减少CPU运算     * 优点:播放流畅、低功耗,解码速度块     * 缺点:兼容不好   * 软解吗:用CPU来解码     * 优点:兼容好     * 缺点:加大CPU负担,耗电增加、没有硬解码流畅,解码速度相对慢

播放

  • ijkplayer:一个基于FFmpeg的开源Android/IOS视频播放器   * API易于继承;   * 编译配置可裁剪,方便控制安装包大小;   * 支持硬件加速解码,更加省电   * 简单易用,指定拉流URL,自动解码播放

聊天互动 *IM:(InstantMessaging)即时通讯:是一个实时通信系统,允许两人或多人使用网络实时的传递文字消息、文件、语音与视频交流   * IM在直播系统中的主要作用是实现观众与主播、观众与观众之间的文字互动

  • 腾讯云:腾讯提供的即时通讯SDK,可作为直播的聊天室
  • 融云:一个比较常用的即时通讯SDK, 可作为直播的聊天室

如果当前bash显示你的用户不是root的话, sudo -s

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/162861.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
文件存储
文件存储(Cloud File Storage,CFS)为您提供安全可靠、可扩展的共享文件存储服务。文件存储可与腾讯云服务器、容器服务、批量计算等服务搭配使用,为多个计算节点提供容量和性能可弹性扩展的高性能共享存储。腾讯云文件存储的管理界面简单、易使用,可实现对现有应用的无缝集成;按实际用量付费,为您节约成本,简化 IT 运维工作。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档