我正在尝试使用docker容器中的GStreamer,它是用this Dockerfile构建的。 安装工作正常,我可以运行GStreamer了。但是,我无法使用元素v4l2h264enc,因为出现了不存在的错误。当我运行gst-inspect时,我得到: root@95e1ff54cca5:~# gst-inspect-1.0 v4l2h264enc
No such element or plugin 'v4l2h264enc' 但是v4l2src运行得很好: root@95e1ff54cca5:~# gst-inspect-1.0 v4l2src
Factory Deta
基本上(希望如此)我想录制一个摄像头的视频流,并将其保存在一个特定的目录中,然后当用户输入一些数字时将其删除。我没有很好地解释这一点,所以这是我目前正在做的:
#!/bin/bash
while true
do
TIMESTAMP=$(date +"%Y.%m.%d_%H.%M")
read -p "Enter your number here: " YOURNUMBER
echo -e "Saving video stream:"
mkdir /home/$USER/orders/$YOURNUMBER
avconv -f vide
我有一个脚本,从HDMI视频采集卡(/dev/video0)编写MJPEG到v4l2loopback设备(/dev/video5)。我编译了v4l2loopback模块。这个脚本在Raspberry上运行得很好,但是在Ubuntu上却失败了,错误是:V4L2 output device supports only a single raw video stream。有什么方法可以绕过这个问题吗?还是我被迫将HDMI捕获输出转换为way视频?我更愿意让它在Ubuntu上工作,就像它在Raspberry Pi上工作一样。
下面是FFMPEG命令:
ffmpeg -input_format mjpe
我正在尝试从usbcam和麦克风抛出ffmpeg的ffserver上流式传输视频和音频,我得到了2个错误:
- ffmpeg seems functionning but showing "Data doesn't look like RTP packets, make sure the RTP muxer is used" - i can connect to ffserver only for static files
这是server.conf文件:
HTTPPort 1235
RTSPPort 1234
HTTPBindAddress 0.0.0.0
Ma