在我的项目中,我用覆盆子做了一架无人机。我需要以尽可能低的延迟从我的raspberry pi相机中传输视频,并将该流共享给多个客户端。我基于以下代码实现了一个简单的流:
import io
import picamera
import logging
import socketserver
from threading import Condition
from http import server
PAGE="""\
<html>
<head>
<title>picamera MJPEG streaming</title>
</head>
<body>
<h1>PiCamera MJPEG Streaming</h1>
<img src="stream.mjpg" width="640" height="480" />
</body>
</html>
"""
class StreamingOutput(object):
def __init__(self):
self.frame = None
self.buffer = io.BytesIO()
self.condition = Condition()
def write(self, buf):
if buf.startswith(b'\xff\xd8'):
# New frame, copy the existing buffer's content and notify all
# clients it's available
self.buffer.truncate()
with self.condition:
self.frame = self.buffer.getvalue()
self.condition.notify_all()
self.buffer.seek(0)
return self.buffer.write(buf)
class StreamingHandler(server.BaseHTTPRequestHandler):
def do_GET(self):
if self.path == '/':
self.send_response(301)
self.send_header('Location', '/index.html')
self.end_headers()
elif self.path == '/index.html':
content = PAGE.encode('utf-8')
self.send_response(200)
self.send_header('Content-Type', 'text/html')
self.send_header('Content-Length', len(content))
self.end_headers()
self.wfile.write(content)
elif self.path == '/stream.mjpg':
self.send_response(200)
self.send_header('Age', 0)
self.send_header('Cache-Control', 'no-cache, private')
self.send_header('Pragma', 'no-cache')
self.send_header('Content-Type', 'multipart/x-mixed-replace; boundary=FRAME')
self.end_headers()
try:
while True:
with output.condition:
output.condition.wait()
frame = output.frame
self.wfile.write(b'--FRAME\r\n')
self.send_header('Content-Type', 'image/jpeg')
self.send_header('Content-Length', len(frame))
self.end_headers()
self.wfile.write(frame)
self.wfile.write(b'\r\n')
except Exception as e:
logging.warning(
'Removed streaming client %s: %s',
self.client_address, str(e))
else:
self.send_error(404)
self.end_headers()
class StreamingServer(socketserver.ThreadingMixIn, server.HTTPServer):
allow_reuse_address = True
daemon_threads = True
with picamera.PiCamera(resolution='640x480', framerate=24) as camera:
output = StreamingOutput()
camera.start_recording(output, format='mjpeg')
try:
address = ('', 8000)
server = StreamingServer(address, StreamingHandler)
server.serve_forever()
finally:
camera.stop_recording()
上面的代码启动了raspberry pi上的流服务器,并提供了picamera的视图。延迟大约是200 me,这对我确实很好,但是当更多客户端连接时,延迟就会增加。有5个用户,已经有相当大的滞后性。这是我的项目的主要问题,因为我必须实时为所有用户流。我预测会有20-30个用户。我只是在尝试实现类似于youtube视频网站或谷歌会议的效果,在那里,多个客户可以通过我的网络摄像头连接和观看视图,但延迟最少。
因此,我考虑创建第二个服务器,它将只接收来自picamera的一个流,然后立即将其重新流到多个客户端。我试着根据上面的代码制作一个类似于使用raspberry pi的服务器,但是使用opencv。picamera流被opencv截取并显示,但不幸的是延迟相当高。我也尝试过通过rtmp协议和raspivid通过rtmp协议流到youtube,并尝试通过带有gstreamer的rtsp协议在码头上进行数据再流,但是延迟时间在2-3秒左右,这对我来说太大了。有没有办法这样做,或者其他解决方案?我花了很多时间在这上面,我不知道该怎么做.任何建议都会有帮助,因为我是视频流方面的新手。对不起我的英语不太好
发布于 2022-11-22 11:49:34
视频流往往是带宽、延迟和质量之间的平衡。
大多数在线电影和现场娱乐,体育等流媒体服务使用HSL或破折号流,以提供他们需要的质量,并将有一个更高的延迟,你的目标。
类似地,在小型PI设备上为多个客户端提供服务可能会超出设备容量,正如您所看到的那样。
我认为让无人机将流发送到服务器,然后服务器向客户端提供流是最可行的方法,但您可能希望查看基于实时流协议的服务器。
我认为,对于这种类型的流媒体,WebRTC是当前最明显的选择--它的专门设计是将延迟优先于其他因素,比如质量,以实现实时语音和视频通信。
存在开源webRTC服务器,这将是一个很好的起点-例如:
付费解决方案也存在,比如Ant蒸服务器的企业版,其中列出了其使用场景中的IP摄像头流:
这里还很好地概述了一种基于node.js的WebRTC解决方案,据报道,如果它满足您的需要,它的延迟将达到400 is:https://stackoverflow.com/a/67887822/334402
https://stackoverflow.com/questions/74500671
复制相似问题