我想要得到两个摄像机的外部参数来观察相同的视图。为此,我遵循了几本教科书、讲座等中规定的程序。
据我所知,翻译达到了一定的规模。我该怎么做才能得到绝对的翻译。我没有任何已知的物体在现场,也许我会有车道线在现场,有没有办法使用车道线信息得到绝对的翻译?
发布于 2021-11-15 21:00:13
我在dsp stackexchange上找到了这篇文章部分解决了你的问题。正如你所发现的,翻译的规模不能从基本矩阵中推断出来,你需要更多的信息。这是有意义的,因为如果您唯一的信息是点对应信息,那么大小和形状就会有歧义。
如何推断出尺度
如果你需要知道相机的平移比例,你将需要了解一些场景几何。也就是说,你可以用它作为参考来确定翻译的范围,例如场景中校准物体的坐标。然后,您可以使用像透视-n点(PnP)这样的姿态估计方法。我发现了由Willem Hof on PnP编写的这次讲座,其中包含了非常清晰和简洁的代码屏幕截图。
注意,在执行PnP时,您有多个未知。你的第一台相机被认为是i\0,所以它的姿态是完全未知的。一旦第一个摄像机已知,第二个相机的姿态将是P1·rel P1,而第二个相机只剩下一个未知的参数,即其平移的比例。
--为什么你不能推断出的翻译规模
例如,如果你有两个球的图像和多个点对应,用不知道位置和姿势的校准相机拍摄:那么它是普通的足球还是山地大小的球雕塑?我们可以用基本矩阵得到两个摄像机的相对位置,并对球的三维重建进行三角剖分。但我们会知道规模吗?当然,我们现在知道球的形状了,但是三角点之间的距离是多少?这一信息不存在。您可以推断相机的相对旋转;一个是在球的前面(表示这台相机为I \ 0 ),另一个是在球的一侧。你也知道相机往哪个方向移动(翻译),但不知道它走了多远。对于一个大的对象,翻译将是一个更大的规模。同样,do从本质矩阵分解中知道了两个摄像机的相对平移方向和相对旋转,这是一个很有价值的约束。
https://stackoverflow.com/questions/69742520
复制相似问题