腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(770)
视频
沙龙
1
回答
使用
c++
(
Linux
)
改变
BlueFox3
摄像头
的
流
帧
速率
?
、
、
、
我不知道如何从
C++
代码中设置相机需要获取
的
每秒帧数。提供
的
接口还远不清楚。有没有人知道该怎么做?
浏览 7
提问于2017-02-17
得票数 0
1
回答
在Java OpenCV中加快
摄像头
访问速度
、
、
我正在将基于
C++
OpenCV
的
部分代码移植到OpenCV上。我正在
使用
Willow编写
的
,即
c++
OpenCV背后
的
组。我不
使用
javacv (托管在googlecode上)。此代码
的
一部分访问网络摄像机
的
视频
流
并对其进行处理。
使用
C++
,我可以在“实时”中显示
摄像头
视频:如果我挥手,屏幕上
的
视频显示我挥舞着一只手。
使用
J
浏览 5
提问于2014-01-17
得票数 0
回答已采纳
1
回答
摄像头
捕获在windows和
linux
上看起来不同。
、
、
嘿,我正在尝试
使用
带有opencv
的
覆盆子pi来处理一些图像,但是当我
使用
pc上
的
windows和pi上
的
Ubuntu mate
使用
相同
的
值从网络
摄像头
中捕捉图像时,它们看起来非常不同 有没有人知道为什么
浏览 3
提问于2018-11-17
得票数 1
1
回答
初始化libavcodec以实现实时播放,并在必要时删除
帧
。
、
、
、
、
我有一个
C++
计算机视觉应用程序连接到ffmpeg库,它提供从视频流到分析例程
的
帧
。“中等通用视频标识符”涵盖3种一般视频
流
类型:磁盘上视频文件
的
路径、IP视频
流
(摄像机或视频
流
服务)和具有所需格式和
速率
的
USB网络
摄像头
引脚。我现在
的
视频播放器是尽可能通用
的
:只播放视频,忽略音频和其他
流
。它具有用于根据
流
的
源和编解码器检索<e
浏览 2
提问于2019-10-20
得票数 2
回答已采纳
1
回答
在
C++
中
使用
RTP从网络摄像机中流编码MPEG-4实时视频
、
、
、
、
我一直致力于在
Linux
中
使用
C++
语言
使用
RTP协议从
摄像头
构建视频
流
。我能够
使用
opencv从
摄像头
中获取
帧
,并将它们逐
帧
发送到客户端应用程序,该应用程序
使用
相同
的
帧
/秒参数逐个显示这些
帧
。但这主要是一种MJPEG类型
的
传输,因为所
使用
的
编码是JPEG编码,每
帧
浏览 3
提问于2017-03-06
得票数 0
1
回答
用于请求当前FPS
的
摄像头
的
RTSP命令
、
、
在我
的
RTSP服务器中,我需要知道每秒钟来自Axis Camera
的
流
的当前fps是多少。谢谢, Prateek
浏览 4
提问于2011-07-11
得票数 1
回答已采纳
2
回答
用rgb24实现mjpeg到原始video4
linux
、
、
我正在
使用
c++
编写一个video4
linux
摄像头
查看器。我需要一个RGB24输出(交错
的
R8B8G8)来显示。我能够获得视频输入几乎所有低分辨率
的
摄像头
,
使用
YUYV,GREY8或RGB24。但我也需要从高分辨率
的
网络
摄像头
获得输入,当需要高帧率时
使用
MJPEG进行压缩。 我可以
使用
V4L2_PIX_FMT_MJPEG作为像素格式获得MJPEG
流
,但是接收到<
浏览 0
提问于2012-01-12
得票数 4
回答已采纳
2
回答
使用
VLC流式传输图像文件-更新图像时
、
、
、
我正在查看我
的
.NET WPF应用程序
的
视频
流
和音频
流
。经过一些研究后,我决定VLC看起来可能是最好
的
选择(但我对建议持开放态度)。到目前为止,我已经能够流式传输静态图像文件()。但是,当文件更新(
使用
下一
帧
)时,
流
不会更新。有没有什么命令我可以传递给VLC,告诉它以特定
的
速率
连续读取文件,这样我就可以用下一
帧
覆盖文件。我
的
视频不是直接来自
摄像头
输入,而是我首先处
浏览 3
提问于2012-01-26
得票数 1
2
回答
如何为发送方实现TCP流量限制?
、
、
、
我将在
C++
(windows/
linux
)中为多个用户实现一个
摄像头
视频聊天系统。由于“正常”用户通常通过DSL/电缆连接,因此对我(优先)
的
TCP/IP连接有很强
的
带宽限制。基本思想是在发送方带宽受限
的
情况下传输尽可能高
的
帧
。(其他应用程序可能仍然需要后台
的
互联网带宽。)在第二步,相机捕获率应自动调整到网络限制,以避免不必要
的
CPU开销。我所拥有的是必须传输到远程端
的</em
浏览 6
提问于2010-12-22
得票数 0
1
回答
对来自gigE
摄像头
的
图像数据进行高速转码
、
、
、
我有一个8MP(3296x2472) gigE
摄像头
,能够以大约25
帧
/秒
的
速度运行,并具有14位拜耳编码
帧
。最终,我认为我想要从
帧
创建一个h.264网络
流
,但我不确定一台普通
的
计算机是
浏览 13
提问于2014-11-27
得票数 1
2
回答
OpenCV网络
摄像头
帧率
、
、
我有一个网络
摄像头
,能够1080p 30fps,我已经确认
使用
VirtualDub预览和保存从网络
摄像头
本身
的
视频。由于某些原因,OpenCV只给我大约4FPS,处理器没有最大限度地
使用
任何核心,所以我看不到为什么?(顺便说一句,这实际上并没有输出提要,只是获取
帧
)。 有OpenCV经验的人知道为什么吗?会不会是OpenCV没有
使用
DirectShow来读取
摄像头
(假设30fps/1080p需要DirectShow -我相信这就是virtua
浏览 2
提问于2012-06-08
得票数 4
回答已采纳
1
回答
如何编写函数以接受SWIG中
的
分数对象?
、
、
、
我正在
使用
SWIG在Python和我们
的
C++
视频处理库之间编写一个接口。在python中,我
使用
Fraction类来表示
帧
速率
(例如,NTFS24 =24000/1001FPS)。所讨论
的
功能是视频转码,即获取视频(或
帧
流
)输入并产生类似的输出。为此,我们需要指定输出(有时是输入)
帧
速率
。 有什么方法可以在
C++
(SWIG)端接口分数类吗?从我在互联网上发现
的
浏览 4
提问于2019-10-29
得票数 0
回答已采纳
3
回答
结合Direct3D、Axis制作多IP
摄像头
图形用户界面
、
、
现在,我想做
的
是做一个新
的
图形用户界面,本质上是一个
使用
directX (更准确地说,是direct3D)
的
软件,它可以显示来自Axis IP摄像机
的
流媒体图像。目前,我已经做了一个比较基础
的
Direct3D应用程序,加载和显示来自avi视频
的
视频
帧
(用于测试)。我不知道如何
使用
DirectX直接从视频中加载图像,所以我
使用
OpenCV保存视频中
的
帧
,并让DX上传它们。非常慢。现在
浏览 1
提问于2009-08-25
得票数 0
1
回答
同步屏幕播放(ffmpeg)和从网络
摄像头
(OpenCV)捕获
、
、
、
从我之前
的
问题,我试图建立一个简单
的
眼睛跟踪器。决定从
Linux
版本开始(运行Ubuntu)。为了完成这一任务,我们应该组织屏幕播放和网络
摄像头
捕获,使来自两个
流
的
帧
完全匹配,并且每个
流
中都有相同
的
帧数。屏幕
的
消失完全取决于相机
的
fps,所以每次我们从网络
摄像头
获得图像时,我们都可以抓取一个屏幕
帧
并保持高兴。但是,在每次抓取
摄像头
帧</e
浏览 0
提问于2010-06-05
得票数 2
1
回答
在没有openCV
的
情况下在
c++
中访问网络
摄像头
我可以做一些
c++
网络
摄像头
程序而不
使用
opencv (没有其他外部库)?我
的
想法是从
摄像头
中提取数据,并将其显示在窗口上,就像实时视频一样。你能给我举一些例子吗?对不起,我
的
英语不好。非常感谢。
浏览 2
提问于2012-09-19
得票数 5
回答已采纳
1
回答
从位图转换为MIplImage或IplImage c#
、
、
、
我在
c++
中创建了一个算法来进行背景减去,我想
使用
dll(外部)从c#中调用它,并
使用
参数"IplImage“。问题是我在c#中获取
摄像头
流
,并将
帧
作为图像(位图)。如何将位图转换为IplImage,以便在
c++
中发送它,反之亦然,以检索处理过
的
帧
? 非常感谢。
浏览 2
提问于2012-07-21
得票数 1
1
回答
设置多路网络
摄像头
流
、
、
、
、
我们目前正计划通过可从网站上选择
的
网络
摄像头
连接我们所有的办公室。所以我猜设置可能是这样
的
:Webcam 2 - > Streamserver -> Webserver displaying html5 Video 我已经做了第一次测试,从Windows
使用
VLC流到中央服务器,但结果相当糟糕(在1-2
帧
之后
流
停止)。你有什么建议-我可以在客户端/网络
摄像头
网站(
Linux
浏览 2
提问于2013-09-11
得票数 0
1
回答
Python3:在win10上用OpenCV模拟本地
摄像头
设备
、
、
、
、
我想在Python中流式处理我
的
OpenCV输出作为本地网络
摄像头
流
,这样它就可以像其他
摄像头
一样被其他程序
使用
。有可能吗?有没有可以做到这一点
的
库?我已经阅读了一些堆栈溢出问题,并发现:与我
的
问题非常相似(但
使用
的
是Java/
C++
)cv2.imshow("...", output) 每
帧
我想有一个
流
,我可以提供图像,这将被视为其他程序
浏览 2
提问于2019-04-02
得票数 1
1
回答
将视频从自定义
摄像头
发布到antmedia服务器
、
、
、
我无法在antmedia github repository.中编译WebRTCTest应用程序这是我正在尝试编译
的
应用程序。 我需要测试webRTC上
的
实时
流
性能。安装程序运行
的
是
Linux
操作系统,我
使用
gstreamer来捕获视频
帧
。 以下是
使用
案例:
使用
WebRTC协议将从
摄像头
捕获
的
实时视频
帧
流式传输到反媒体。但是,我尝试编译上面链接中给出
的
WebRT
浏览 46
提问于2021-01-27
得票数 0
2
回答
带有OpenCV
的
视频采集卡(类似
摄像头
)
、
、
、
我想用视频采集卡捕捉我
的
屏幕显示,并通过OpenCV/
C++
处理图像。 我听说有一些像
摄像头
一样
的
视频采集卡。(也就是说,我可以用VideoCapture在OpenCV上获得屏幕显示)。
浏览 2
提问于2017-03-31
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
基于 TensorFlow、OpenCV和Docker 的实时视频目标检测
跨平台多媒体框架-QtAV
基于S5pv210流媒体服务器的实现之网络摄像头
微软AR/VR专利分享基于眼睛注视位置的视频流式传输
神经网络生成极慢视频,从此不再错过任何细节
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券