我希望能够将AR无人机2的视频从Debian服务器重新传输到Flash。
我知道AR无人机使用的是编解码器p264。当涉及到视频编解码器时,我完全是新手,所以我不知道什么适合我想要实现的目标?
我已经能够从AR无人机上流式传输视频,但与使用ffplay直接连接到AR无人机相比,延迟非常高,质量非常低。
我目前在标准ffserver.conf中使用.swf示例:
<Stream test.swf>
Feed feed1.ffm
Format swf
VideoFrameRate 30
VideoIntraOnly
NoAudio
</Stream>
.ffm摘要的设置如下所示:
<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 17K
ACL allow 127.0.0.1
NoAudio
</Feed>
我用来为ffserver提要提供输入的命令:
ffmpeg -i http://192.168.1.1:5555 http://localhost:8090/feed1.ffm
既然当前流是不可监视的,我如何才能实现更低的延迟和更高的质量?
发布于 2012-10-26 06:27:35
不幸的是,ffserver根本无法完成您想要的工作。你在互联网上遇到了和其他人一样的困难。我能得到的最好的延迟是大约3秒,随着流运行几个小时,这个延迟逐渐增加到大约5-10秒。
流也不是用ffmpeg解码的。我不知道为什么。它与ffplay一起工作,这只会让我更困惑!
我正在调查Py-Media,看看我是否可以为类似的项目编写自己的代码。我想流式传输ardrone视频,并缩小流中的图像。
附注:查看gstreamer,我看到其他人讨论它产生了不同的结果。
https://stackoverflow.com/questions/12674048
复制相似问题