经常收到一些网友的来信或者留言,反馈如下这样的困惑:
“我是一名应届毕业生,该如何快速地成长起来” “我只懂 C/C++,是学 Android 开发有前途,还是 iOS 开发有前途?” “我是一名 Android/iOS 开发,已经可以独立完成一个完整的 App 开发上线,该如何继续提升?” “我想从事音视频开发,该如何入门? 如何进阶 ?”
很高兴看到大家有这样的问题,因为这也从侧面反映了你是一个积极向上,想不断努力来提升自己的人。 我就先从一个简单的问题聊起,“到底 Android 开发有前途还是 iOS 开发有前途?” 其实这个问题跟 “PHP 是不是世界上最好的语言一样”,只会引发争论,却没有什么实际价值,在我看来,无论是 Windows、Linux、Android 还是 iOS 开发,都没有什么优劣之分。
当你已经走到第 4 步了后,往往就会感觉遇到了瓶颈,产生如文章开头的问题,下一步何去何从 ?
在具体的业务领域,你可以慢慢沉淀下来,用自己的努力和时间换来对领域知识的深入理解和积累,逐渐从一个开发小白走向最懂这个行业的专家。 今天呢,我就主要跟大家分享下,如果你对实时音视频这个领域感兴趣,应该如何入门和提高 ?
虽然一篇文章无法把音视频开发的知识点都介绍清楚,但是大概的学习路线还是可以梳理一下的,我们先看看下面这张图:
其实说白了,音视频开发,就是要掌握图像、音频、视频的基础知识,并且学会如何对它们进行采集、渲染、处理、传输等一系列的开发和应用。
每一个门类,都可以深挖,衍生出一个又一个充满技术挑战的话题,比如:如何更高效地渲染画面、如何提高音视频的压缩比,如何优化弱网下的音视频数据传输等等。 其实,音视频开发的技术积累,也没有那么难,带着问题去 Google,带着任务去实践,一切都不是问题,我们就从上面说的 4 个方向,逐个探索一下,有哪些知识点,是要我们去了解和掌握的。
我们分别具体来看看采集、渲染、处理、传输等技术点。
采集,它解决的是,数据从哪里来的问题,那么,数据究竟从哪里来的呢 ?
其实无论在哪个平台,图像、视频最初都是来自摄像头,而音频最初都是来自麦克风,因此,做音视频采集,就要掌握如下的技术知识。 1)系统的摄像头采集接口是什么,怎么用 ?
比如: Windows:DirectShow Linux:V4L2 Android:Camera iOS:AVCaptureSession
2)系统的摄像头采集的参数怎么配置,都是什么含义 ?
比如:分辨率、帧率、预览方向、对焦、闪光灯 等。
3)系统的摄像头输出的图像/视频数据,是什么格式,不同格式有什么区别 ?
比如:图片:JPEG,视频数据:NV21,NV12,I420 等
4)系统的麦克风采集接口是什么,怎么用 ?
比如: Windows:DirectShow Linux:ALSA & OSS Android:AudioRecord iOS:Audio Unit
5)系统的麦克风采集参数怎么配置,都是什么含义 ?
比如:采样率,通道号,位宽 等
6)系统的麦克风输出的音频数据,是什么格式?
比如:PCM
渲染,它解决的是,数据怎么展现的问题,那么,数据究竟怎么展现呢 ?
其实无论在哪个平台,图像、视频最终都是要绘制到视图上面,而音频最终都是要输出到扬声器,因此,做音视频渲染,就要掌握如下的技术知识。
处理,它解决的是,数据怎么加工的问题,那么,数据究竟可以怎么加工呢 ? 首先,我们看看图像/音视频的数据可以做哪些加工 ?
其实无论在哪个平台,图像和音视频的加工,除了系统的 API,大多数都会依赖一些跨平台的第三方库的,通过掌握这些第三方库的原理和使用方法,基本上就可以满足日常音视频处理工作了。 这些库包括但不限于:
因此,学习和掌握这些第三方库的使用,非常有必要。
传输,它解决的是,数据怎么共享的问题,那么,数据究竟怎么共享呢 ? 共享,最重要的一点,就是协议。 我觉得互联网之所以能够如此蓬勃地发展,将整个世界都紧密联系在一起,其实是离不开 W3C 这个委员会的巨大贡献的,因为无论什么数据,要想在不同的国家、不同设备之间互联互通,离不开 “标准”,有了 “标准”,大家就能互相读懂对方。 因此,研究音视频传输,其实就是在研究协议,具体有哪些协议呢 ?
互联网环境下的音视频的传输,是一个非常有挑战和价值的方向,为了解决弱网下的传输延时、卡顿,提高用户体验,整个业界都在不断地进行着深入的探索和优化。
限于篇幅原因,我的经验分享就到这里了,实时音视频开发的路很长,更多的还是要靠自己去学习和实践,带着追求极致的精神去探索和优化,最终,我相信大家都能快速成长,成为真正的行业专家!