我正在寻找一个代码或应用程序,它可以在考虑上下文和运动的情况下从视频中提取出突出的对象,
或
一种仅用于运动显着性地图检测(运动对比度)的算法,因此我可以将其与我所拥有的context_aware显着目标检测器融合。
实际上,我已经测试过context_aware显着性地图检测器,但是它在某些帧中检测到背景的某一部分作为突出对象,我希望在这个检测中涉及到运动和时间,这样我就可以尽可能地提取出确切的突出对象。
有谁可以帮我?
发布于 2016-01-09 14:19:35
计算机视觉社区中最流行的方法之一(虽然有点过时)是基于图形的视觉显着性(GBVS)模型。
它使用一种基于图形的方法计算视觉显着性。首先,提取与fsm模型相同的特征映射。它导致三种多尺度特征地图:颜色,强度和方向。然后,在每个特征映射的所有网格位置上建立一个全连通图,并在每个节点之间分配一个权重。这个权重取决于节点之间的空间距离和特征映射的值。最后,将每个图作为马尔可夫链来构造一个激活映射,其中与周围节点高度不同的节点将被分配到较高的值。最后,所有激活映射最终合并到最终的显着性映射中。
您可以在这里找到matlab源代码:http://www.vision.caltech.edu/~harel/share/gbvs.php。
https://stackoverflow.com/questions/32312278
复制相似问题