我正在做一个opencv项目,它需要检测屏幕上的图像,它会在一段时间后消失。它需要在图像显示时保存尽可能多的帧,并在图像消失时停止。我计划使用收集的数据进行ConvNet,所以捕获的帧越多越好。
我使用模板匹配全屏来搜索图像并识别它何时消失,但我仅捕获了总帧数的30%,屏幕速度为30FPS。
为了提高帧捕获率,我改为使用模板匹配全屏搜索,直到找到图像,然后搜索区域减少到找到图像的坐标,只有很小的边距,这样程序就可以使用更少的资源来识别图像何时消失(因为检查图像是否还在那里需要非常小的区域)。这使我能够捕获60%的帧。
然而,我想知道,我可以做一些其他的事情来优化我的程序吗?我觉得为每一帧做模板匹配都是大材小用。在这种情况下,目标跟踪是更好,还是因为图像消失而无法工作?
PS:图像在屏幕上停留了大约7-10秒,然后大约需要同样的时间再次弹出。
发布于 2018-05-05 11:18:51
我结束了使用numpy来保存捕获的帧,并达到了99%的效率,减少了面积,没有调整图像大小或多处理。
https://stackoverflow.com/questions/50165274
复制相似问题