首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

技术分享|3D Radar和EyeSee360——对比VR中视野之外移动物体的可视化技术

- 正文开始 -

在过去几年中,头戴式 VR 设备飞速发展,并且应用于众多的场合中。然而, 在许多应用程序中,VR 设备有限的可视范围会导致用户所关注的对象离开视野范围。这就导致用户无法获取这些不在视野范围内的对象的位置或移动信息,这在某些场合是致命的,如模拟交通在高速公路上安全超车、模拟检测任务时避免船舶停靠时发生事故,等等。并且,由于人的视觉范围是有限的,VR 设备最多只能将视野扩大到与人的视觉范围一致,这就导致在硬件层面上不能解决这个问题。

针对这个问题,人们提出了许多技术来将视野外的物体的位置信息可视化。但到目前为止,这些技术都是面向可视范围外静止物体进行评估的,并没有对其移动性能进行测试和改良。这就会导致以下可能出现的问题:用户在使用基于这种技术的 VR 设备感知视野外的运动对象时,对其运动的方位角度或距离会产生一定的偏差。

本文是基于上述背景,在没有类似研究的背景下,对此进行分析与对比,旨在确定视野范围外对象参数技术的发展方向并加以改良。

技术介绍与算法描述

目前, 被大规模运用的屏幕外可视化技术主要分为以下两种:Overview+detail(概览+详细信息)与Focus+context(注意集中点+环境)

/ 屏幕外可视化技术大类 /

Overview+detail 技术使用小地图的方法, 显示周围区域的详细信息,Focus+context 将信息附着于屏幕的边框,可以使用鱼眼视图扭曲地显示视野外的环境,也可以用抽象的箭头、三角等符号对其进行指示。

Overview+detail 可以将周围环境的所有信息都显示出来,但为了用户的认知体验,信息量不宜过多,否则反倒会干扰用户的判断。Focus+context 更符合人类视角的参照系,但由于压缩了屏幕边缘的所有信息,因此无法获取所有的信息。

/ 代表性技术描述 /

针对Focus+context 出现的问题,作者Gruenfeld 开发了HaloVR 与WedgeVR, 且为了同时可视化多个视图外对象的位置,搭载了其提出的EyeSee360新可视化技术,其利用雷达样可视化效果在用户外围显示视野外的对象。本文希望将EyeSee360 这种新型技术与现有的用于 Overview+detail 的3D Radar技术进行对比。

3D Radar 技术

3D Radar 技术是一种常用电脑游戏的可视化技术。图 1a 显示了 3D Radar 技术的原理。3D Radar 将用户用其中心的球体表示,球外侧的实线圆为 y=0,两条虚线分别为 x=0 与 z=0。我们 3D Radar 放在 VR 设备屏幕的最下面且在用户的正前方,这样一不会扰乱用户的视野,二可以让用户的感知更加自然。

在 3D Radar 中,每个视图外的目标对象都有一个红色球表示。当目标和用户不在一个高度时,则在红球与实线圈中绘制一条线,以此来表示不表示这个目标的高度。

图 1 可视化技术介绍

3D Radar 技术是现如今最成熟的 Overview+detail 类可视化技术,其最大的特点是信息损失小。

EyeSee360 技术

EyeSee360 是将视野外的目标的信息放置在位于用户外围的网格中的可视化技术,其模型如图 1b。我们可以看到,外面的椭圆是用户的全方位信息被二维铺开的形状,内部的虚线为分割方位角的辅助线。此网格的纵向提供目标的高度, 整个网格图形提供目标相对于用户的方位。而目标相对于用户的距离则被压缩损失掉了。

网格中间的方形区域为用户实际的可视范围。如果设中心点为(0,0),则 VR 视野范围为上下左右均是(-45°, 45°)。此网格系统将三维位置信息压缩到二位网格平面上。

为了使目标相对于用户的距离可以显示,此模型将可视范围外的目标由可变色的圆点代替。在本文中,当圆点的颜色由蓝变红时,代表着目标相对用户的距离越来越近。

EyeSee360 技术是本文作者提出的,且经试验检验过的误差最小、信息提示最合理的 Focus+context 类可视化技术,其最大特点是,信息显示方式的形式符合人类视觉参照系,但其压缩了部分重要的信息。

实验比较

/ 实验中调查的运动类型 /

在实验中,我们希望调查,用户在这两套系统中对视野范围外的对象感知的准确度。我们提供了三种不同的运动方式

(1)任意两点之间的直线运动;

(2)任意一点朝向用户的直线运动;

(3)围绕用户的轨道运动(本文中只分析了圆周运动)。

三种运动形式如图 2。

图 2 三种运动形式

/ 实验过程 /

为了评估上述两种可视化技术的性能,我们希望调查移动估计误差、开始和结束的位置误差是否受可视化技术种类与运动类型的影响。

定义运动估计误差为实际的位移向量与用户获得的位移向量的夹角,定义运动初始位置的估计误差为实际运动初始位置单位向量与用户获得的运动初始位置单位向量之间的夹角,定义运动结束位置的估计误差与上文类似。

实验过程为,将每次的运动时间设为 5 秒,实验测试的所有运动轨迹具有相同的长度(8 米)且包含于原点为 O、半径为 5 米的圆 S 内。我们在圆 S 上随机选取了一个点 A 作为运动起始点,然后根据每种运动的类型,选择不同的运动终点 B,进而随机生成路线。每种运动方式生成 7 种路径,且将一半设定为反向运用(即运动起始点为 B,终点为 A)。将这些路径应用于上述两种可视化技术,

选择志愿者进行观测,记录数据及运动轨迹,以此来测试两种技术的性能表现。

/ 实验结果 /

在实验数据分析中,我们使用了W 检验确定试验获得数据的正态性(p>0.05, W 趋近于 1),使用了符号秩成对检验法确定所得两组数据的关联度是否足够说明其为两个类型的数据,使用 Holm-Bonferroni 校正法寻找显著差异,其后进行卡方检验验证相关性。得到以下数据:

表 1 不同运动类型的相关性比较

图 3 不同运动类型的运动估计误差(角度)

数据显示,各条件之间有显著的差异,且 3D Radar 技术的方案,无论是位移误差还是初始终止位置误差,均小于 EyeSee360 技术的方案

评估与讨论

/ 总体分析 /

我们认为,EyeSee360 技术之所以表现效果不好,其最主要的原因是此技术的类型——Focus+Context 会沿屏幕边缘将所有的信息压缩。此结论的正确性已通过上述实验步骤的数理统计部分予以验证。

/ 各运动类型的详细分析 /

线性运动分析

在EyeSee360 中,80%的参与者将线性运动判断为了圆周运动,而在3D Radar中,100%的参与者认为是线性运动。我们认为这是由于将三维方向信息压缩至二维所导致的结果。

距离测试分析

EyeSee360 中,用颜色作为距离显示表现很差,50%以上的用户会经常混淆运动的方向。导致这一问题的原因主要在于颜色没有距离属性,信息显示不够直观。

圆周运动分析

由于圆周运动不涉及到与用户距离的变化,所以 3D Radar 和 EyeSee360 的效果相差无几。

/ 总结 /

在多次试验后,我们发现,3D Radar 技术最适合描述视野外移动对象的位置信息。此外,这种技术也更方便表述更多关键的信息。

本文提出的新技术:EyeSee360,是一种基于 Focus+Context 的可视化技术。由于技术的先天性不足,即会压缩部分有用的信息,其实际体验效果欠佳。然而, 这种技术方法也有其独特的优势,即符合人类的视角参照系,并且还有许多的改进空间,其中最重要的就是,EyeSee360 可以在描述目标与用户之间的距离时提供更佳的方法,如直接标注、将变色圆点改为可根据距离大小而改变大小的楔形提示物,等等。这样,能够进一步加强 Focus+Context 系技术的体验和准确度。

思考

当下,头戴式 VR 设备的一个待解决的问题是,选择一个准确且符合人类认知习惯的方案,让设备使用者可以准确、快速且自然地感知 VR 世界中不在使用者视野范围内的运动的物体。

现在最被人们广泛使用的两种方案是 Overview + Detail(OD)和 Focus + Context(FC)。OD 的特点是信息全面,但可能出现干扰使用者判断的情况;FC 的特点是符合人类认知习惯,但可能有信息压缩损失。

作者将自己提出的 FC 方案最优解——EyeSee360 与 OD 的代表性方案——3D Radar 进行对比。结果发现,自己方案的问题,主要是由于 FC 类方案压缩有效信息的缺陷导致的

要想弥补此缺陷,必须将被压缩掉的有效信息,以合理、直观的方式显示出来。并且,在实际操作过程中,我们需要甄别信息的必要性,防止将无用的干扰类信息展示出来。

感谢

谭天一的建设性意见

本文部分图片和文字来自公开文献

如有使用不当之处请私信告知

- END -

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20210201A04VUB00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券