腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
视频
沙龙
2
回答
如何将从opencv视频捕获中提取的帧写入kinesis视频流
opencv
、
video
、
stream
、
amazon-kinesis
我正在阅读kinesis视频流,并执行亚马逊网络服务的人脸识别。但是,在AWS face reCognition之后,我必须执行诸如创建矩形之类的任务以及其他由OpenCV执行的后处理任务。因此,我使用Boto3 library捕获运动视频,并将输入提供给OpenCV库并执行我的操作。现在,我不确定如何在执行操作后将帧写回kinesis。 This是显示如何从Kinesis视频流读取数据的参考链接。我需要将帧回写到kinesis视频流,而不是imshow。我该怎么做呢?
浏览 17
提问于2019-06-19
得票数 1
1
回答
如何使用python中的opencv将视频的特定部分保存到单独的视频中?
python
、
opencv
、
video-editing
我有一个视频,我想获得视频的特定部分,使用帧号,并保存它们。 例如,如果有一个视频,它总共有200个帧,我想提取一些特定的视频部分,比如从15帧到30帧,50到79帧,等等,我想分别保存这些部分。 cap= cv2.VideoCapture('Trademill.mp4') video_length = int(cap.get(cv2.CAP_PROP_FRAME_COUNT)) print ("Number of frames: ", video_length) success,image = cap.read() count = 0 while succ
浏览 1
提问于2021-05-01
得票数 0
回答已采纳
2
回答
如何从摄像机中存储图像?
opencv
、
video
、
processing
、
video-capture
、
imagefilter
我刚开始学习processing.js。 我的程序的目标是对视频帧进行熟练的图像过滤(Opencv)。 因此,我想(不过我发现它不是以这种方式工作的:<): 从processing.video包中的捕获对象中获取视频蒸汽。 存储当前图像(我希望它可以存储为PImage对象)。 OpenCV图像滤波器 使用过滤的PImage对象调用图像方法。 我找到了从摄像头获取视频流的方法,但不知道如何存储这个。 import processing.video.*; import gab.opencv.*; Capture cap; OpenCV opencv; public
浏览 2
提问于2014-10-25
得票数 0
回答已采纳
1
回答
录制时的视频流文件
c++
、
opencv
、
video-streaming
、
rtsp
我目前正在做一个学生项目,我们必须为视频创建一个直播服务--: 我们用OpenCV从网络摄像头上捕捉视频 我们想在录像时播放这段视频 我们有一个保存到计算机上的文件capture.avi,当这个文件被保存时,我们想要流它。 目前,我们不知道如何做到这一点,我们不知道从A到B的文件是否在B中是可操作的(例如通过VLC ),也不知道是否会有任何中断。 我们计划使用RTSP作为网络协议。我们用C++编码所有东西。 以下是问题: RTSP是否注意正在写入的文件流? 我们应该使用什么格式的源?我们应该将从OpenCV捕获的帧从A流到B(所以在B中,我们必须使用OpenCV将帧
浏览 1
提问于2014-04-17
得票数 3
1
回答
如何在Lambda中通过fragmentNumberString从Kinesis视频流中获取帧?
python
、
amazon-web-services
、
aws-lambda
、
amazon-kinesis
我正在使用Kinesis和Lambda。使用ML的SageMaker端点处理Kinesis视频流,将输出数据写入Kinesis数据流,然后在Lambda中处理输出数据。如果发生特定情况,我需要可视化该帧并发送图像数据,但是,我无法检索该帧。我有片段和帧元数据,例如: FragmentMetadata(fragmentNumberString=111, serverSideTimestampMillis=1561970550674, producerSideTimestampMillis=1561970547121, fragmentNumber=111, success=true, erro
浏览 12
提问于2019-07-01
得票数 1
1
回答
使用Java中的OpenImaj从视频中提取帧
java
、
image-processing
、
video-processing
、
openimaj
for (MBFImage mbfImage : video) { DisplayUtilities.displayName(mbfImage.process(new CannyEdgeDetector()), "videoFrames"); 我需要从视频中提取帧,并且我正在使用Java。 我希望使用OpenIMAJ库来实现这一点。我想知道他们是否有其他更好的解决方案(更好的处理时间)?OpenImaj从视频中提取帧的平均处理时间和速度。 编辑: 我需要提取本地的视频文件。我不打算用OpenIMAJ实现其他任何东西。我只需要OpenIMAJ来提取帧并遍历它们。我需要知道Open
浏览 3
提问于2014-09-12
得票数 1
回答已采纳
1
回答
视频中的vb.net字符检测与图像提取
.net
、
vb.net
、
opencv
、
emgucv
、
detection
示例: 文件名: test.mp4 档案持续时间:46分钟 程序将在0分钟到46分钟(逐帧)开始扫描。 如果视频上有字幕或文字,请捕获该帧并提取到图像中。 不是OCR,只是捕捉和提取图像 有人告诉我我可以用opencv或emgucv来做 但我不知道该怎么做。你们能给我辅导一下吗? 原始图像 图像提取后
浏览 1
提问于2020-04-16
得票数 2
回答已采纳
2
回答
Python:用处理过的图像创建视频
python
、
opencv
、
video
我有一段录像,里面记录了一辆车的正面景色。该文件是一个.mp4,我想要处理单个图像,以便我可以提取更多的信息(对象,车道线等)。问题是,当我想要从处理过的文件中创建一个视频时,我会得到一个错误。以下是我迄今所做的工作: 用cv2打开视频。video ()- Works 用cv2.imwrite()保存视频的单个帧-工作正常 用cv2.用cv2创建一个由单个帧组成的视频,video ()-工作得很好 使用cv2.cvtColor()、cv2.GaussianBlur()和cv2.Canny()对视频进行后处理--工作正常 从处理过的图像中创建视频--不起作用。 下面是
浏览 7
提问于2017-10-02
得票数 1
3
回答
Python:在不同视频长度中提取“n”帧
python
、
opencv
我想使用Python和opencv从多个视频长度中提取固定数目的帧'n‘。如何将opencv与Python结合使用呢? 在5秒的视频中,我想从这个视频中平均提取10帧。
浏览 2
提问于2019-02-15
得票数 2
回答已采纳
1
回答
Kinesis视频流异步获取帧
python
、
python-asyncio
、
video-processing
、
amazon-kinesis
我想从AWS Kinesis捕获视频流并使用asyncio。我的目标是从流中提取帧,并将它们传递到处理队列。 下面是我到目前为止所做的工作示例。它接收似乎不是完整帧的各种长度的数据块(例如,可能在76字节到8192字节的范围内)。 有没有一种便宜的方法将流分割成块,并支持异步,最好没有线程? 我想要一个应用程序来处理至少10-20流,并有一个应用程序的每个CPU运行在服务器上。 我在想ffmpeg和opencv,但它们似乎太重量级了,而且似乎与asyncio不太兼容。 import asyncio import aiobotocore VIDEO_STREAM_NAME = 'b
浏览 27
提问于2019-02-28
得票数 3
1
回答
使用DirectShow捕获AVI视频
c++
、
video
、
directshow
我正在尝试使用DirectShow AVIMux和FileWriter过滤器来捕捉一个AVI视频。当我连接SampleGrabber过滤器而不是AVIMux时,我可以清楚地看到流是30fps,但是在捕获视频时,每帧被复制4次,我得到的是120帧而不是30帧。电影的速度比正常速度慢了4倍,并且只有4帧中的第一帧是关键帧。我尝试了同样的实验,每秒8帧,对于我收到的每一张图像,我在视频中都有15帧。在15fps的情况下,我得到了每帧8次。 我尝试用C++编写代码,并使用Graph Edit Plus对其进行测试。我有什么办法可以控制它吗?也许是对AVIMux过滤器的一些限制?
浏览 3
提问于2013-01-21
得票数 0
1
回答
用于视频字幕的视频帧提取准则
video
、
lstm
对于视频字幕,我们需要将视频帧输入到递归神经网络。如果我们有视频,提取帧的标准是什么,例如帧采样率和图像分辨率要求。 我还想知道,当我们做视频字幕时,我们是先提取视频的所有帧作为输入,还是在处理它们的同时提取帧。
浏览 5
提问于2017-02-16
得票数 0
1
回答
从Mediacodec输出中处理帧并更新Android上的帧
android
、
image
、
frame
、
surface
、
textureview
我在做一个关于图像处理的项目。我实时接收原始的h264视频流,并使用MediaCodec对其进行解码。我已经成功地在TextureView或SurfaceView上显示了解码视频。现在我想处理每一帧,使用OpenCV4Android对其进行处理,并在屏幕上显示更新的视频帧。我知道OpenCV有一个示例项目,演示如何从手机摄像头处理视频帧,但如果我有另一个视频源,我想知道如何处理。 此外,我还有一些关于TextureView的问题: onSurfaceTextureUpdated()从SurfaceTextureListener做什么?如果我在这个函数中调用getBitmap(),那么这是否
浏览 5
提问于2016-01-25
得票数 4
2
回答
如何用opencv制作序列图像视频
opencv
、
image-processing
、
video
我正在做一个小项目提取视频帧,并将其重新制作成视频。如何将序列图像重新还原为视频? 这是我提取视频帧代码的一部分。 if (n_frame % 3 == 0) { //Save an image sprintf(filename, "frame%.3d.jpg", n_save++); imwrite(filename, frame); cout << "save: " << filename << endl;
浏览 1
提问于2017-02-16
得票数 1
1
回答
我是否需要在OpenCV中使用OpenCV中的Gstreamer构建
c++
、
opencv
、
video-streaming
、
gstreamer
我试图通过RTSP发送cv::Mat帧。我使用此GStreamer代码在Visual中创建了一个工作项目。我可以接收GStreamer的测试视频使用VLC。 现在我正试图通过OpenCV发送一个视频,用cv::VideoCapture逐帧读取它。 但是我的OpenCV是在没有GStreamer支持的情况下构建的?如何使用GStreamer库通过RTSP发送Opencv帧?
浏览 12
提问于2020-02-28
得票数 1
回答已采纳
2
回答
如何将YUV数据输入到Opencv?
opencv
、
yuv
、
mat
我是Opencv的初学者。在我的新opencv项目中,我必须从相机设备捕获视频帧,并需要将它们提供给opencv进行处理,但现在我的相机无法工作(硬件问题)。我需要使用从另一个相同类型的摄像头设备获得的YUV文件来测试opencv应用程序。所以我的问题是:如何将YUV数据提供给opencv?opencv是否支持YUV数据? 根据我的调查,我可以知道opencv将捕获的帧转换为Mat.So格式,是否有任何方法可以直接将YUV数据转换为Mat对象,并提供给opencv进行处理。 我的设备没有任何MPEG、AVI等的编解码器
浏览 4
提问于2015-01-07
得票数 5
1
回答
从PyAV av.VideoFrame创建HLS视频流
python
、
ffmpeg
、
http-live-streaming
、
pyav
、
aiortc
我希望你是响亮而自豪的。 我是PyAV的新手,我正在使用aiortc for WebRTC MediaServer,在aiortc现场会话中,每个视频帧都有av.VideoFrame对象可用,我想实时地从这些帧创建HLS视频片段。 正如您在中所看到的 他们使用OpenCV视频帧字节(通过管道传输到FFmpeg CLI )进行HLS流。 我的问题是,如何使用PyAV/python来消费av.VideoFrame对象,并提取由60帧组成的2秒视频片段用于HLS流? 或任何适合组装VideoFrames到HLS流的python包。 提前感谢
浏览 16
提问于2021-01-24
得票数 1
2
回答
多摄像头视频拼接
python
、
opencv
、
video
、
video-capture
我想把多个摄像头的视频拼接起来。在缝合时,我想将视角从一个相机切换到另一个相机。有没有可能在OpenCv中实现? 例如,我有3个视频路径(具有相同持续时间的视频),并希望通过在视频之间切换来创建单个视频摘要。首先,我创建了3个视频捕获对象,如下所示。 cap0=cv2.VideoCapture(path1) cap1=cv2.VideoCapture(path2) cap2=cv2.VideoCapture(path3) 类似地,我还创建了 ret,frame0=cap0.read() ret,frame1=cap1.read() ret,frame3=cap2.read() 现在,最初我将从
浏览 3
提问于2016-10-03
得票数 1
1
回答
如何从avi文件中读取YUV8数据?
c++
、
opencv
、
video
、
ffmpeg
我有avi文件,其中包含未压缩的灰色视频数据。我需要从里面提取帧。文件大小为22 Gb。 我该怎么做? 我已经尝试了ffmpeg,但是它给了我“无法为视频流找到编解码器参数”的消息--因为没有编解码器,只有帧。 因为Opencv只是使用ffmpeg来阅读视频,所以这也排除了opencv。 唯一的出路似乎是尝试挖掘原始数据,但我不知道如何挖掘。 编辑:这是我用opencv从文件中读取的代码。故障发生在第二个if中。在文件上运行ffmpeg二进制文件时,上面的消息也会失败(找不到编解码器、aprameters等) /* register all formats and codecs */ av_r
浏览 4
提问于2013-09-03
得票数 1
回答已采纳
1
回答
如何在Python中使用See3CAM阅读视频
python
、
opencv
、
camera
我有一个叫See3CAM_CU55M - 5MP的单色USB相机。 我想看使用Python和OpenCV的视频。但是视频和帧的格式并不合适。你知道如何正确地阅读吗?
浏览 6
提问于2022-03-16
得票数 0
2
回答
如何在Linux上读取带有音频流的python视频文件?
python
、
video-capture
、
audio-capture
我正在寻找一种方法,如何使用python从视频文件中提取视频帧和相应的音频片段。我很了解opencv。但它只允许提取视频帧。未提供音频。我需要两个-视频帧和音频片段,它们彼此完全对应。 将非常感谢任何提示:)
浏览 63
提问于2017-08-10
得票数 0
1
回答
如何读取在openCV中使用的视频文件?
c++
、
video
、
opencv
我想从一个"avi文件“中读取一个视频文件,然后逐帧输入,以便在openCV中处理它。我该怎么做呢?在openCV中有这样的函数吗?我应该使用视频阅读框架吗? 什么是读取视频文件的好框架?
浏览 0
提问于2011-10-14
得票数 0
回答已采纳
4
回答
视频中的帧在提取后出现倒置
python
、
video-processing
、
opencv3.0
我这里的问题是,当我使用opencv将视频提取到帧中时,有时我得到的帧会翻转,这在我的机器(Window)和VM(ubuntu)上都发生了,但我测试的一些视频,帧没有翻转。因此,我想知道应该在代码中更改/添加什么因素或哪些内容,以便在不翻转的情况下修复提取 def extract_frame(video,folder): global fps os.mkdir('./green_frame/{folder}/'.format(folder=folder)) vidcap = cv2.VideoCapture(video) success,image =
浏览 0
提问于2018-11-01
得票数 6
1
回答
在linux上,OpenCV在幕后使用哪个视频库?
c++
、
opencv
、
gstreamer
、
video-capture
、
v4l2
我正在写一个简单的软件来捕捉和记录网络摄像头图像压缩视频文件。我在一个C++软件中使用OpenCV "VideoCapture read(frame)“和"VideoWriter write(frame)”。 我使用的是Ubuntu 14.04 LTS操作系统。 我想知道OpenCV在幕后使用的是哪个库。是ffmpeg、gstreamer还是V4L2,还是它自己的低级源代码?它似乎会随着我使用的OpenCV版本的不同而发生变化。(例如2.4.1,2.4.11,3.x) 谁能概述一下OpenCV在解码/编码视频方面做了些什么? 从摄像头到我的程序的视频数据在用户空间的典型路径是什
浏览 2
提问于2016-03-18
得票数 4
1
回答
用OpevCV VideoWriter实时录制视频
opencv
、
ffmpeg
、
video-capture
、
video-processing
我有一些OpenCV项目,通过USB分析视频,在某些情况下必须将视频流记录到文件中。使用我的软件的人抱怨说,10+分钟录音产生的视频文件比应该的长大约20秒。 我在使用openCV的VideoWriter。Iv'e尝试将CV2_CAP_PROP_FPS设置为非常低的设置,iv‘尝试在几秒钟内获得平均帧速率,以便为输出文件的帧速率找到一个很好的设置。仍然不能满足我的需要。 有没有人知道一个很好的方法来确保我的录像接近实时记录?我应该使用类似time.sleep (在python中)的东西来限制我的框架吗?还是有更好的方法来做这件事?
浏览 0
提问于2016-02-12
得票数 2
回答已采纳
2
回答
电视(电视)视频实时像素级分析推荐标准
linux
、
video
、
opencv
、
ffmpeg
、
signal-processing
[注:这是对的重写,它被认为是不适当的和关闭的。] 我需要做一些像素级的电视(电视)视频分析。这一分析的确切性质并不相关,但它基本上涉及到从MPEG-2传输流开始的每一帧电视视频的每个像素。主机平台将是服务器级、多处理器64位Linux机器. 我需要一个库,它可以处理传输流的解码,并向我提供实时的图像数据。OpenCV和ffmpeg是我为这项工作考虑的两个库。OpenCV很吸引人,因为我听说它很容易使用API和丰富的图像分析支持,但我没有使用它的经验。我过去曾使用ffmpeg从文件中提取视频帧数据进行分析,但缺乏图像分析支持(虽然Intel的IPP可以补充)。 除了对这个问题的处理方法(不包括
浏览 3
提问于2011-12-05
得票数 6
回答已采纳
1
回答
如何使用OpenCV同时从大量视频中提取和保存图像帧?
python
、
image
、
opencv
、
video
、
frames
我的问题是: 我能否同时使用OpenCV从大量视频中提取图像帧,并以.jpg或.png的形式保存在文件夹中? 我编写了一个OpenCV Python代码,当我提供该视频的视频路径作为输入时,它将从1个视频中提取图像帧。此外,我还提供了提取到不同目录的图像帧的输出路径。但是,我的代码可以一次获得一个视频路径,并从该视频中提取图像帧。 有没有办法,我可以提供一个目录的路径,有'n‘个视频,我可以从所有的n个视频中一次按顺序提取图像帧,并保存在输出路径目录中吗? 下面是我使用OpenCV模块从单个视频中提取图像帧的Python代码。 import cv2 import os video_p
浏览 1
提问于2021-06-07
得票数 1
回答已采纳
1
回答
为什么Windows下cvGetCaptureProperty(CV_CAP_PROP_POS_FRAMES)会返回0?
opencv
、
computer-vision
我在Linux上看到过关于这个问题的讨论。我一直在用这个调用运行一个应用程序,然后突然它开始返回视频的0帧,而之前它报告了正确的帧数。我不知道为什么会这样。我没有更换机器上的编解码器。OpenCV是不是系统上的buggy和无用?最微不足道的事情似乎也经常失败。
浏览 3
提问于2012-03-12
得票数 0
5
回答
使用Python解析和呈现Kinesis视频流,并获得输入帧的图像表示
python
、
amazon-web-services
、
parsing
、
amazon-kinesis
、
payload
我已经建立了一条管道,在该管道中,我将视频实时流传输到Kinesis视频流(KVS),后者将帧发送到进行人脸识别,然后再将它们发送到(KDS)。最后,KDS将结果发送给lambda。 对于进行人脸识别的框架,我得到以下格式的JSON: My是:使用这个JSON的,我想以某种方式获得由KVS记录的帧的图像表示。 我试过什么: 这个JSON为我提供了片段号。 我使用这个片段号并调用 上面的调用返回一个名为Payload的键作为响应。 我一直试图以某种方式将这个有效载荷渲染成图像。 然而,我没有做到这一点,每次,因为我不知道如何理解这个有效载荷和解码它。 下面是代码片段。 def getFr
浏览 0
提问于2020-03-29
得票数 2
回答已采纳
2
回答
如何使用OpenCV的cv::Mat&来获得H.264的“运动矢量”?
ios
、
opencv
、
h.264
、
avcapturesession
我正在使用OpenCV iOS SDK。 当使用设备预置AVCaptureSessionPresetiFrame1280x720进行捕获时,我想以30 fps的速度从h.264帧获取运动矢量。 我想得到数值向量,我相信OpenCV是有帮助的。但对我来说,要迅速研究这件事并不容易。 我应该使用什么OpenCV cv::Mat 方法? 是否更像是找到正确的迭代器来提取运动矢量? 在做任何事情之前,它是否涉及将捕获的视频数据编码到h.264帧中?
浏览 6
提问于2015-10-20
得票数 2
3
回答
改进视频缩略图提取
video
、
opencv
、
ffmpeg
、
thumbnails
、
video-processing
我一直在使用FFmpeg查找h264视频文件的中间帧,并提取jpg缩略图以便在流媒体门户网站上使用。这是为每个上传的视频自动完成的。 有时帧碰巧是黑色帧,或者只是语义不好,例如背景或模糊的镜头,与视频内容不太相关。 我想知道是否可以使用openCV或其他方法/库通过面部识别或帧分析以编程方式找到更好的缩略图。
浏览 2
提问于2011-03-22
得票数 8
2
回答
用于解码H.264 RTSP流的库
opencv
、
ffmpeg
、
h.264
、
vlc
、
rtsp
我计划在OpenCV中使用FFMPEG解码基于H.264的RTSP流,但当我尝试时,它出现了一些错误。后来,我发现很多人在使用ffmpeg (libavcodec)解码H.264流时遇到了问题。通常,以下提到的错误消息在使用libavcodec时弹出: h264@0xa766dd0隐藏1200DC,1200AC,1200mV错误“ 是否有人成功地使用其他库来解码基于H.264的RTSP。如果是这样的话,那就是库(我听说过live555,它在vlc中用于解码这些流)。我还想知道输出格式,以及如何使其与OpenCV兼容(通常在opencv中,我们可以使用cvQueryFrame直接从视频流中提取帧
浏览 30
提问于2011-04-19
得票数 2
1
回答
Python Video to frames?
python
、
opencv
、
video
、
frames
在python中使用opencv从实时视频中提取帧是可能的吗?我正在试着写一个文本识别软件的代码。使用opencv和tesseract,但我无法让tesseract查看视频,除非它是在帧中。
浏览 15
提问于2020-01-20
得票数 0
1
回答
OpenCV无法从视频捕获设备读取
python
、
opencv
、
video-capture
、
highgui
长时间倾听者,第一次提问者。情况如下: 我正在尝试使用.read()功能从多个opencv (python)视频捕获设备中读取帧。使用opencv 2.4.11时,随机发生以下错误: HIGHGUI错误: V4L2: OpenCV不支持输入图像的像素格式,无法停止流。:坏的文件描述符 此错误似乎发生在.read()调用中,甚至将调用包装在try/ the中也无法捕捉到问题,因为.read()调用永远不会作为异常返回。 当试图更新到最新版本的ocv(3.2.0)时,.read()无法返回任何帧。 更多信息:机器:LinuxMint18.1照相机: Python: 2.7 更新:代码: 下面的操作
浏览 5
提问于2017-06-23
得票数 1
2
回答
处理用ffmpeg解码的音频包
c++
、
audio
、
opencv
、
ffmpeg
、
htk
在我的另一个之后,我想知道是否可以对解码的音频包进行一些处理,比如MFCC提取。我使用的代码使用ffmpeg解码来自mpeg-2文件的音频和视频。视频处理是使用opencv完成的,因为这个库允许逐个抓取帧。我需要同时处理相应的音频样本。 谢谢。
浏览 20
提问于2012-02-25
得票数 1
回答已采纳
1
回答
在OpenCV 2.4.2中读取CIF视频中的帧
c++
、
c
、
opencv
问题如下: 有一个应该由OpenCV处理的CIF视频文件。不幸的是,我不能从这段视频中读取帧。下面的代码 cv::VideoCapture cap = cv::VideoCapture("foreman.cif"); if(!cap.isOpened()) { std::cout << "Open file error" << std::endl; return -1; } 在控制台中提供Open file error。 有没有办法使用OpenCV从CIF视频中抓取帧?
浏览 2
提问于2012-07-07
得票数 1
回答已采纳
3
回答
在OpenCV中检索当前帧编号
c++
、
opencv
、
frame
、
vision
如何使用OpenCV获取视频的当前帧号?OpenCV有没有内置的函数来获取当前帧,或者我必须手动获取?
浏览 0
提问于2012-05-07
得票数 16
回答已采纳
1
回答
如何在android中从视频中提取帧,对其进行处理,并将其组合成视频文件
android
、
video
如何从视频中提取帧,对其进行处理,并将其组合成视频文件。 Jcodec -非常慢。 JavaCV -不适合,因为它在GNU GPL下。 OpenCV -因为它使用OpenCV管理器。 PS视频来自SD卡,而不是相机。
浏览 1
提问于2015-04-02
得票数 0
1
回答
从QMediaPlayer视频中提取图像
c++
、
qt
、
image-processing
、
video-processing
我正在使用Qt Creator实现一个读取视频的应用程序,通过单击按钮,我将保存正在显示的帧。然后我将使用Opencv处理该帧。 使用QmediaPlayer显示视频时,如何从视频中提取帧?然后我应该能够在Matlab中将该帧转换为Mat图像。 谢谢
浏览 27
提问于2016-02-09
得票数 0
2
回答
如何使用cv2.imwrite保存不同文件夹中多个视频的帧?
python
、
opencv
好吧,我在互联网上搜索了很多,我发现了各种从视频中提取帧的方法,但似乎没有一种方法适用于多个视频。所以我想出了我自己的解决方案。但现在的状态是,我能够从一个视频中提取帧,并将其保存在文件夹中的名称。但是代码对第二个视频不起作用。以下是错误: Traceback (most recent call last): File "c:\Users\hp\Videos\multi.py", line 21, in <module> cv2.imwrite(os.path.join(location , "frame%d.jpg" % counte
浏览 64
提问于2020-05-17
得票数 1
回答已采纳
1
回答
从for循环中的多个视频中提取帧
python
、
opencv
、
for-loop
我试图从一个for循环中的多个视频文件中提取帧,使用OpenCV。我已经在网上找到了几种从单个视频中进行帧提取的方法,但是我很难在一个for循环中运行帧提取。 从单个视频(视频变量)中提取帧的工作代码是: cap=cv2.VideoCapture(video) i=0 while (cap.isOpened()): # ret, frame=cap.read() if ret == False: break cv2.imwrite(str(i) + '.jpg', frame) i+=1 cap.release() cv2
浏览 2
提问于2020-03-23
得票数 1
回答已采纳
2
回答
视频捕获、读取和抓取的区别
python
、
opencv
我没有做什么特别的事情,但我正在阅读opencv文档,我无法理解read和grab方法与VideoCapture方法之间的区别,在这里,他们是这样做的: 抓取:方法/函数从视频文件或摄像机抓取下一帧,在成功的情况下返回true (非零)。 读:解码并返回下一个视频帧。 在这两种方法中提取下一个帧。有什么区别?
浏览 1
提问于2019-08-29
得票数 10
回答已采纳
2
回答
OpenCV网络摄像头帧率
opencv
、
video
、
webcam
我有一个网络摄像头,能够1080p 30fps,我已经确认使用VirtualDub预览和保存从网络摄像头本身的视频。 由于某些原因,OpenCV只给我大约4FPS,处理器没有最大限度地使用任何核心,所以我看不到为什么?(顺便说一句,这实际上并没有输出提要,只是获取帧)。 有OpenCV经验的人知道为什么吗?会不会是OpenCV没有使用DirectShow来读取摄像头(假设30fps/1080p需要DirectShow -我相信这就是virtualdub使用的)。OpenCV将图像读取到其专有数据类型Mat中的事实会成为瓶颈吗? 我的相机是,我的操作系统是装有Visual Studios2010
浏览 2
提问于2012-06-08
得票数 4
回答已采纳
1
回答
Boto3 Kinesis视频GetMedia和OpenCV
python
、
amazon-web-services
、
opencv
、
boto3
、
amazon-kinesis
我正在尝试使用Boto3从kinesis获取视频流,然后使用OpenCV显示提要,同时将其保存到文件中。 获取签名的URL和Getmedia请求的过程似乎工作得很好,只是当我尝试使用OpenCV呈现它时,它似乎不起作用。 数据正在不顾一切地流向数据流 import boto3 import numpy as np import cv2 kinesis_client = boto3.client('kinesisvideo', region_name='eu-west-1',
浏览 0
提问于2018-04-27
得票数 10
1
回答
从二次视频流FFMpeg中提取帧
video
、
ffmpeg
、
video-capture
、
mkv
我和FFMpeg一起工作,处理一些可以有多个视频流的.mkv视频。我如何从其他视频流(而不是从主视频流)中提取帧?我想使用FFMPeg从每个视频流中提取一个帧。有什么想法吗?
浏览 4
提问于2020-09-16
得票数 1
回答已采纳
1
回答
用python用ASUS Xtion录制视频
python
、
video
、
openni
、
asus-xtion
我有一个ASUS Xtion 3D传感器摄像头。我想用这台照相机用蟒蛇录视频。 我使用本教程尝试过OpenCV;,但是通过opencv使用OpenNI API似乎没有视频记录。它只显示如何抓取帧,但那不是录像。 我怎样才能用这台摄像机在蟒蛇中录制一段录像呢? 谢谢,
浏览 4
提问于2016-04-25
得票数 0
回答已采纳
1
回答
如何从AVI视频中提取帧
c++
、
opencv
嘿,到目前为止,我用OpenCV播放了一个video.avi,但是我现在应该怎么做才能提取帧呢…? 下面是到目前为止我写的让我的视频播放的代码: #include<opencv\cv.h> #include<opencv\highgui.h> #include<opencv\ml.h> #include<opencv\cxcore.h> int main( int argc, char** argv ) { cvNamedWindow( "DisplayVideo", CV_WINDOW_AUTOSIZE ); CvCapt
浏览 0
提问于2013-01-19
得票数 1
回答已采纳
1
回答
有没有一种方法可以用python编写防崩溃的视频?
python
、
opencv
、
video
、
raspberry-pi
、
h.264
我在用树莓pi全天候抓拍视频,一直在用picamera的录制功能: import picamera camera = picamera.PiCamera() camera.start_recording('output_file.h264') camera.wait_recording(600) camera.stop_recording() 这将创建.h264文件。 现在,我正在尝试对捕获的帧做一些事情(对象检测等)。因此需要使用其他方法来编写视频,比如opencv的VideoWriter。 这里是我的主要问题:当使用picamera时,它并不关心进程在记录时是否被终止。即
浏览 16
提问于2020-12-04
得票数 2
回答已采纳
1
回答
在内存OpenCV 2上写入视频
c++
、
opencv
我们目前正在为需要OpenCV的程序开发一些功能。被抛到桌面上的一个想法是使用“缓冲区”,它将一分钟的视频数据保存到内存中,然后我们需要从缓冲区中为每个事件触发器提取类似于13秒的视频文件。 目前我们没有足够的OpenCV经验,所以我们不知道这是否可能。查看文档,唯一允许在内存中写入的函数是imencode和imdecode,但这些都是图像。如果我们能找到一种方法将图像序列写入到视频文件中,这将是很巧妙的,但目前我们的想法是使用视频缓冲区。 我们也在使用OpenCV版本2规范。 我们想知道是否有可能将视频的一部分写入内存。
浏览 1
提问于2012-09-03
得票数 1
回答已采纳
1
回答
如何使用opencv VideoCapture方法获取实时帧?
python
、
opencv
、
gstreamer
、
rtsp
我的Opencv是4.5.4版本,使用gstreamer lib编译。 在我的情况下,我得到的是流媒体视频的帧。流媒体时间和获取视频时间(cv2.VideoCapture)之间存在差距。如果通过流式传输下一个视频,cv2.VideoCapture无法获得下一个流视频的帧,因为opencv没有到达最后一帧。 我该怎么解决它呢?(当我使用opencv版本3.4.0时,我没有遇到这个问题。) 我的代码(不使用多进程/线程) def connect_streaming(rtsp_url): while True: video_cap = cv2.VideoCapture(rt
浏览 55
提问于2021-11-18
得票数 0
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
利用Python实现实时监控视频流的方法
使用 OpenCV和Python基于深度学习实现实时视频目标检测!
Python实现视频去抖动:从原理到实践
基于 TensorFlow、OpenCV和Docker 的实时视频目标检测
10分钟学会使用YOLO及Opencv实现目标检测(下)
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券