Apple Http LiveStreaming概述文档明确规定,超过10分钟的流媒体视频不能逐步下载,必须使用Http LiveStreaming(HLS)进行传输。它还指出,HLS的延迟在30秒左右。
在我的例子中,我正在构建一个需要几乎实时接收实时流媒体视频的应用程序。因此,一方面,我必须使用HLS进行实时流,但它不够快。另一方面,我不能使用其他任何东西
我曾尝试使用ffmpeg+ffserver生成一个零碎的mp4,但不幸的是我的iPhone不能播放它。有没有办法让它( mp4容器中的原始h264 )可以在iOS的Safari或者其他跨平台容器中播放?Ps:我使用raspberry pi 3来托管h264进程,所以我避免了重新编码任务;相反,我只是尝试将我的原始ffmpeg放入一个与ios兼容的容器中,并使其可以通过媒体服务器访问。
所以http livestreaming可以让你向iOS设备发送实时视频,但是iOS设备如何向服务器发送实时音频/视频呢?他们也可以使用http live stream吗?例如,对于视频会议应用程序,如webex或facetime,iOS设备如何将音频/视频发送回服务器?当然也有iOS应用程序接口可以让你做电话应用程序,但我想知道幕后发生了什么,特别是HLS可以用来将流发送回服务器吗?
谢谢!