多视角、体素、XR等新型视频服务技术(IBC2019)

本文是来自 IBC 2019 五篇技术文章的阅读总结,涉及多视角、体素和VR/AR等新型视频技术,翻译整理:郭帅。

一、手语翻译员的多视角重构的对比分析

Comparative Analysis of Real-time Multi-view Reconstruction of a Sign Language Interpreter

1. 背景动机

聋人社区对手语播报的需求非常迫切,HbbTV 2.0 的启动也促使众多广播公司通过手持设备为聋人社区提供更多易获取的内容。现有手语播报服务依赖专用演播室(背景,光线,摄像),多使用后期合成技术,将手语翻译合成进主要内容流中,花费很高。

对手语翻译员进行写实三维重构是一种解决方法,以用户为中心,使用低花费传感器,且不受环境影响。本文使用多个 RGB-D 传感器(Kinect V2, RealSense D435)来进行重建。

2. 相关工作

RGB-D 传感器已广泛用于姿态估计、场景重建等。深度传感器有深度信息丢失或不准确的缺点,产生原因是不正确的红外模式匹配造成的许多错误,如噪声,深度值确实或闪烁。一些研究者采用双边滤波器及其变种来处理。仍有耗时过长和不准确的问题。作者用他们之前的基于 Time-of-Flignt(TOF)传感器的工作来解决这个问题。

已有一些用多 Kinect 无缝渲染场景的工作,主要挑战是对感知到的数据做筛选、纠正和重构。本文的引文 11 通过给点云中的每一对近邻添加一个新点,实现了不需要预处理或过采样的实时表面细化。引文 9 通过使用多台 PC 分散计算负载,然而实时处理的帧率较低。

3. 主要方法

主要有三个步骤:将多台放置在采集区域周围的 RGB-D 传感器连接起来;校准;用可实时处理大规模数据的方法来进行点云提升。

校准分两部分,RGB 与 D 的校准;多台传感器之间的校准。

RGB 与 D 的校准:二者不能达到像素级别的一一对应,本文用的是引文 8 的方法。把深度图中的点映射到三维空间中,然后再投影到 RGB 摄像平面中。

传感器之间的校准:本文用的是引文 8 和 9 的方法,通过使用摄像机针孔模型(camera pinhole model)来寻找传感器的内在和外在参数。

重建的主要问题为,如何对多个传感器采集到的信息做时间序列同步。相关方法主要缺陷是,不同 RGB-D 设备采集到的深度信息可能矛盾。

文章认为深度图的质量对模型获取和重建都很关键。ToF 摄像头如 Kinect V2 通过衍射膜投射伪随机红外光,可能造成深度值不准确。结构传感器如 RealSense D435 主要缺点是因红外传感器曝光不足或曝光过度导致的深度值不准确。因此需要用预处理去掉图像边界上的像素,可以通过采用多个滤波方法来实现(文献 8)。

图像表达的准确率主要取决于点云点的数量,本文将不同传感器得到的点云进行了缝合。文章假设任何传感器得到的深度值都可以用其他传感器采集到的数据进行估计。

4. 总结思考

主要思路是,多 RGB-D 传感器,RGB 与 D 的校准和传感器校准,时间序列对齐,滤波去除噪音,点云缝合。文章讲的 RGB 与 D 的校准方法如果是用了 Kinect V2 提供的标准接口,效果应该很差,我之前也用过。不知道作者具体是怎么做的。

文章没讲清楚具体重构的方法,关键的几个点也是直接引用之前的文献,一些地方也没说清楚,连实验部分都没有,作图也比较粗糙,实质内容貌似并不多,需要参考其他几篇引文来完全理解和实现。一点启发就是用其他传感器采集到的数据去估计和代替单一传感器的数据,减小误差。

二、六自由度AR/VR应用中多摄像机视频获取与视点插入的质量验证

Evaluating The Quality of Multi-Camera Video Capture and View-Point Interpolation for 6DOF AR/VR Applications

1. 背景动机

制作六自由度视频要求视频用多台摄像机采集、实时深度估计、压缩、流播和回放。目前这些步骤都在发展中,没有现成的解决方案。为了在发展过程中做好抉择,需要提前预测系统参数(例如摄像头间距)和深度估计算法对图像质量的影响。

本文提出了一种使用人工场景的光线追踪图像的质量估计方法。图像做深度估计和视角合成,视角再做合成,得到的图像与光线追踪图像做对比。通过比较光线追踪图像估计得的深度合成得的图像,和用真实深度合成得的图像,隔离模型误差与深度估计误差。

2. 主要方法

Python-Blender v2.79 用于创建 15x15 视角区域内的光线追踪图,该图来自于位于 15x15 点阵上间距为 3cm 的摄像头(下图绿色的圈),视角区域允许观察者上下左右转动头:

Python-Blender 用于自动光线追踪 15x15 的图像,x 和 y 方向的间隔都是 3 厘米。捕获操作有一个关键参数是摄像机的间距(baseline),给定视区内的最小质量水平,使用光线追踪图像可以让我们找到合适的 baseline。

文章研究了人物场景(用 MakeHuman 软件搭建)和车辆场景(使用 Blender 的 demo),作为代表性的场景捕捉。用客观峰值信噪比(Peak signal-to-noise ratio)来度量系统参数(摄像头间距)。PSNR 在用单一数据集比较 baseline 时尤其有用。然后用 PSNR 对比合成图像与光线追踪的图像。 下图给出了整体流程:

本文使用文献 5 和 6 的深度估计与误差分类方法,用双边滤波器保证深度值变化平滑。如上图右侧图,准系统电脑为 Magnus ZBOX-EN1080K,显示器播放的是 4K 的深度估计图和原图,6 个摄像头分辨率均为 640x1080。系统同时处理 6 个摄像头的输入,得到 6 个深度图,将 12 张图拼接到 4K 帧中并编码,上述过程实时帧率为 30fps。客户端接收到的视频是一些压缩和编码过的视频,需要解压缩和解码。流的选择在客户端完成,为左右眼各找两个距离最近的视角。文章还用了简单着色器来提高图像质量。

实验部分在车辆场景和人物场景进行,用真实深度值与估计的深度值作对比。发现摄像头间距越小,视区的 PSNR 值越大。摄像头间距越小,估计误差与视角合成误差都越小。

3. 总结思考

文章主要工作就是用 6 个甚至更多个摄像头阵列拍摄多个视频流,然后做成 4K 视频,压缩编码传输到用户端。用户端是一个比较大的场景,用户直接面对,然后为用户的左右眼分别选择两个最近的视频流做合成,用户转动头(上下左右)就可以得到不同的视角,得到接近于用户直面场景的立体的效果。

实验部分,文章似乎就是用 Python-Blender 做建模,然后取不同视角和深度值模拟 6 个摄像头,再做融合去与真实的深度值做比较。数据也容易取,还避免了引入不必要误差,对做实验是很方便的。

本文的工作令我想起了接触过的 HoloLens,不过 HoloLens 可以让用户围绕场景转一圈,还可以放大、拉近等。比本文做的效果更立体更真实,本文只能面对场景。下图很好地说明了 HoloLens 的特点:

启发是,Python-Blender 是一种很好的工具;PSNR 是一种常见的好用的指标;文章用深度值去校验立体效果,也值得参考。一个粗浅直接的想法就是考虑往 HoloLens 的方向改进,以及考虑如何缩放、移动。文章没有考虑摄像头其他摆放方式下的效果和处理方法,也没有展示真实场景下的效果,后续可以做些这方面的工作。

三、未来广播中的多视角HIAR/VR模式

HIAR/VR For Various Viewing Styles in the Future of Broadcasting

1. 背景动机

文章讨论了未来的广播媒体中要求的技术和研发策略,以及视角形式。AR/VR 被认为是演播室内 4K/8K 发展之后的重要因素。为了发展 AR/VR,文章应用了两种方法:演绎和归纳。

演绎法关注于实现 AR/VR,称为 “For AR/VR”,是通过利用技术创新来提高表现效果。

归纳法关注于用 AR/VR 做什么,称为 “By AR/VR”,首先需要从科技和社会发展趋势来预期现在和未来的潜在需要,然后考虑我们应提供何种图像服务,接下来进行研发。广播媒体公司应考虑用广播内容做什么,比如联系沟通人与人等,这是高于“For AR/VR” 的一层。

本文介绍了过去和现在的关于 “For AR/VR” 和“By AR/VR”的例子,关注未来的视觉形式,讨论了媒体在 AR/VR 时代的作用。通过归纳法,文章期望 AR/VR 媒体能够超越时间限制,将用户连接起来,也期望在 AR 眼镜时代,处理多种形式的 2D 视频成为一种重要方法。为了解决上述问题,文章提出一种使用球形图像和α通道(透明通道)的方法,几乎可以包含所有类型的 2D 视频。为了提高图像中物体的存在,文章扩展了双目头戴式头盔和 AR 眼睛中的深度感知形式。

2. 已有工作

这部分主要介绍过去在 AR/VR 方面的研发尝试,用以指导未来的 AR/VR 广播媒体技术和发展策略。

“For AR/VR” 样例 1 在使用头戴式显示器(Head-mounted displays,HMD)通过宽广视角观察 360° 全景图像时,为了让使用者察觉不到像素结构,HMD 需要提供很高的空间分辨率,这导致 360° 全景图像需要甚至更高的空间分辨率。NHK 以 8K(1058ppi)空间分辨率,用 OLED(有机发光二极管)开发了一种 HMD 原型,来捕捉分辨率 30K*15K 的 360° 图像。这一结果在 ITU-R BT.2123 被用做推荐讨论样例。

“For AR/VR” 样例 2 文献 3 提供了一种方案,使得用户可以一边在电视上观看广播媒体节目,一边用移动设备作为第二屏幕观看三维计算图形(3DCG)内容,包含 AR 内容,两个屏幕的内容均已用 UTC 时间校准对齐。且视频使用了 MMT(MPEG media transport)和 UTC 为基础的时间戳。

“By AR/VR” 样例 1 增强电视。增强电视使得用户能感受到电视中的世界与现实世界结合了起来。有两个主要功能,一是电视图像与移动设备上的 3DCG 内容的帧表达同步,二是电视和移动设备之间的相对定位与定向。与上个样例相比,本样例也记录了视频回放的标记,这样除了可以用于广播电视直播,也可用于时移查看,包装媒体(package media),或数字标识等。

“By AR/VR” 样例 2 360° 视频传递系统,这也是一种电视节目的增强系统,使得用户可以通过移动设备看到广播节目帧之外的上下左右方向的场景,具体在文献 5 中。

3. 目前工作和可能的研发方向

“For AR/VR” 样例 3 使用 8K 摄像机的高沉浸式 VR 产品。VR 视频拍摄中,理性状态是只使用一台摄像机从而避免缝合带来的不匹配不对齐,然而没有设备能 360° 全景拍摄。为了减少缝合,就要求用高分辨率摄像机来实现高分辨率 VR 视频。文中的 Table 1 研究了不同的镜头和 8K 摄像机排列方式,在不同场景下的效果,来选择合理的设置方案。

未来 AR 眼镜的视觉效果 AR 眼镜被视为最有可能替代智能手机的产品。与智能手机不同的是,AR 眼镜具有很高的空间表达自由。AR 眼镜应该有的功能包括,空间映射,空间记录,空间表达等,可以观看各种内容,也可以选择以用户为中心的坐标系(VCS,view coordinate system)或其他比较便利的坐标系。

共享空间的视觉图像服务 用户通过一些手段共享空间,虚实结合。下图很好的表达了这一愿景:

内容演示管理 虚拟电视领域将会要求更高程度的内容管理。用户的目标是优化播放体验,角色是判断者;媒体内容的目标是最大化产品关注度,角色是根据数据做决策;VROS/App 的目标是优化播放,角色是状态估计与播放功能提供。通过 AI 手段,手工判断可以从用户层转移到 VROS/App 层。

“By AR/VR” 样例 3 在 360° 全景视频中加入α通道(透明通道)。实际上各种类型的 2D 内容都可以被融入虚拟电视领域,如前面 By AR/VR 样例 2 所说的。为了处理各种类型的 2D 内容,NHK 在 VCS 中利用 360° 球形图像和α通道,利用了 VP8/WebM。如果多数图像都是透明的,图像数据就可以有更高的压缩率。为了提高 VCS 中带有α通道的 360° 球形图像中物体的存在,提出一种新的距离感知形式——从用户的位置到球形图像的距离参数 d. ,该参数是与时间有关的函数。内容提供者指定 d 的值,用户在 VCS 中方可使用。换言之,用户有两种感知距离的方式:通过双目头盔或 AR 眼镜,感知带有α通道的球形 360° 图像上的物体,与虚拟空间中的背景,之间的视差。360° 图像上的物体与实物之间会有一个映射联系。

“By AR/VR” 样例 3.1 作者开发了一个基于 HoloLens 的应用,该应用用红外传感器记录了每一帧时物体到 HoloLens 的距离,然后在回放时,该应用在相对于 HoloLens 的位置上播放视频。这样仿佛物体还在眼前运动一样。

“By AR/VR” 样例 4 分享 VR 经验。在 VR 中,用户很难与其他人共享一个空间。文献 10 在用户近前(1~2m)演示 AR 场景,在距离用户有一段距离的地方演示 360° 球形图像,这样就允许其他用户共享相同的这个空间。

4. 总结思考

本文讲了 AR/VR 领域已经解决的一些问题和未来可能的研究方向,有一点综述、科普的性质,没有什么具体而微的内容。作者把这些问题和研究方向分为 For 和 By,大致可以理解为理论和应用,作者期望通过一些案例研究对未来的发展提出一些指导。

主要问题包括,如何与更多平台(固定的,移动的)和媒体形式做连接、如何将虚拟和显示更好地结合、如何更好地沟通用户(虚实结合,空间共享),等等。主要热点和工具包括,高分辨率、空间缝合、高分辨率、8K、360° 球形图像、摄像头排列分布、深度值、α通道、VP8/WebM、HoloLens 等等。

共享空间、虚实结合令人浮想联翩,假设有一台服务器,用于统筹处理各个用户(不论距离远近)的 VR/AR 眼镜以及其他摄像头看到的景象,然后进行处理合成,分别传输到各个用户的眼镜上,在服务器上完成交互。可能对传输速度要求比较高,这方面工作应该也有人在做,比较简单的交互功能应该也是可以尝试的。暂时能想到的就这些。

感觉系统性的进展,像 HoloLens 这样可以落地的东西,貌似还是产业界容易做出来,他们有这个需要,他们知识人才也更全面。学术界做一些具体小方向上的改进和提高比较合适,这也是学术界的长处。

这张图画的很细致生动,配色合理,也容易模仿,值得学习:

四、一年商业体视频生产带来的提高和进步

Lessons Learnt During One Year of Commercial Volumetric Video Production

1. 背景动机

2018 年 6 月德国波茨坦一家公司 Volucap GmbH(正是本文的完成单位)成立了一个体视频(Volumetric Video)工作室,12 月开始商业生产,他们的核心产品是 3D 人体重构(3DHBR)。该技术用新系统捕捉真人运动,然后建立动态的 3D 模型,可以从任意虚拟视角或增光环境下观察。一年以来消费者对其进行了大量的测试,提出了大量要求,3DHBR 系统也提升很多。本文介绍了该系统的主要流程模块,和这一年的提升。

2. 系统概述

采集系统 采集系统由一系列继承的摄像头和照明系统,来进行 360° 全方位采集。该公司搭建了一个圆柱形的实验室,直径为 6m,高度为 4m,如下图。装备有 32 个 20MPixel 的摄像头,安装在 16 个立体像对(stereo pair)上。依赖于以视觉为基础的方法进行采集,而非 3D 传感器。220 个 ARRI SkyPanel(这是一种 LLE 柔光灯,ARRI 是品牌)安装在一个扩散组织后面,满足不同的光照需求并照亮背景。现有体视频工作室多依赖于绿色背景和离散方向的直接光照,如微软的 Mixed Reality Studio 和 8i 的工作室。

工作流程 该工作室搭建了完全自动流程来进行专业生产采集。首先是对多视角摄像头系统进行色彩校正和适应,来提供匹配的均匀的图像。然后是在前景物体上做查分键控来简化后续流程,所有摄像头都安装在均匀分布在圆柱设备上的立体像对上,这样就便于从立体基准系统上演着视角方向提取 3D 信息,并用 IPSweep 算法(文献 3、4)做了立体视角匹配。

立体处理方法由一些可代替的算法结构组成,通过对应的映射使用点转化(point transfer)从左到右比较 3D 斑块(patches)的投影。得到的每个立体像对的深度信息被融合到每帧的公共 3D 点云中。然后用后续网格(mesh)处理方法把数据转换为公共的 CGI(computer generated imagery)形式。

由于得到的每帧的网格仍然很复杂,考虑到目标设备的承载能力和模型对敏感区域(比如脸)的适应性,需要做网格缩减(mesh reduction)。对桌面应用,使用有 60k 的脸的网格;对移动设备,是 20k 的脸。这样就得到了一系列网格(mesh)和对应的纹理文件(texture file),每一帧都由具有自己拓扑结构的独立网格组成。这会有一些时间稳定性和相关纹理性能方面的缺陷,因此用一种网格注册(mesh registration)方法来提供相同拓扑结构的注册网格的短序列。

为了便于用户把体视频注入 AR/VR 应用中,发展了一种新的网格编码方案,而视频和音频是另用当前最好方法编码的,多路传输(multipleses)都传入 MP4 文件中。相关插件可以用 Unity 和 Unreal 处理 MP4 文件、编码基本流、实时提取体数据渲染来获得。主要优势是高压缩比特流可以直接从硬盘或网络中庸 HTTP 自适应流流动进出。

Unity 和 Unreal Engine 是两种流行的实时渲染引擎,可以提供完整的 3D 场景发展环境和可以支持多数 AR/VR 设备与操作系统的实时渲染器。

整体流程如下:

独立处理的颜色分级 独一无二的照明系统提供了任意方向的漫射照明(diffuse lighting),因此物体的纹理就好像会很平,没有任何内部阴影。这种漫射照明提供了为后续 3D 模型做重照明的尽可能好的条件,从 VR 体验设计的角度来看。然而在以下算法步骤还需要做不同的颜色分级来处理输入数据:前景后背景分割(keying 键控, i.e.);深度处理;创新的纹理分级。在键入过程中,使用了高饱和度的分级来优化区分前景与背景。在深度处理中,使用分级是为了实现结构的最好表示,因此人像的黑色部分被分地更亮。全方位的漫射照明使得图像非常平滑,因此最后,需要第三种分级方法,来提供一个自然的皮肤色调。这个最终的分级用于把姿态反投影(back-projection)3D 模型上。

为端到端流程设计的新模块 Unity 和 Unreal 没有提供合适工具或流程来继承体视频,目前能处理好动态物体,但是临时变动的网格仍然具有挑战性。3D 视频处理的结果是每一帧都有由独立拓扑结构和纹理集的独立网格组成。为了用独立拓扑结构建立网格流,那个提高相关纹理结构的时间稳定性,使用了网格正则化。定义完关键网格的自动选择后,随后的网格结构是通过把关键帧修正到临近帧计算出来的,并且保护了近邻和拓扑结构。双向处理是用于更好地处理网格流迅速的拓扑结构变化的。一旦注册网格的偏差达到定义好的阈值,就设置新的关键网格。然后所有纹理块都安排到一个纹理集合中,从左下角最大的块开始,为了更好地应用以块为基础的视频编码方法,首先保持块在集合中的位置,只有每个块的视频内容会改变,然后块之间的空白被修改。如下图左右两图(右图还添加了集成照明环境)。

注册好的网格流被压缩并多路传入到 MP4 文件中,这样就能整合入 Unity 和 Unreal。网格用一种标准编码器(文章的图 5)来编码,纹理集用在移动设备上速度更快的 H.264/AVC 来编码,音频信号用标准音频编码器编码。三种不同的流多路集成如 MP4 文件。接收端,Unity 和 Unreal 插件将体视频插入 AR/VR 应用。这些插件包括信号分离器,相关解码器。我们第一批试验中,典型的移动设备的注册网格流是 20Mbit/s,每个网格 20k 面部(faces)。桌面应用是 39Mbit/s,60k。纹理分辨率都是 2048x2048,25fps。

制作过程中的挑战 快速移动。记录快速的动作,甚至是物体,要求对光照条件的快速适应。一般来说这用变换度测(conversion measure)和生产时有限的时间花费是不可能实现的。Volucap 使用一种可编程的光照系统,使得光照模板能够通过几个按键来载入。

给演员重新打光 为了将演员在后续自然地嵌入虚拟场景,需要有调整光照的灵活度。例如,在拍摄的时候如果不知道 3D 场景最终的光照强度,或者对于某些服装或动作需要有一定的光照设置。我们建立了一些简单的方法来解决这个问题(文章貌似没说怎么解决)。

跑步机 采集环境直径只有 3m,如果不做修正的话会有一些动作无法采集,比如沿着一条道路跑。可以用一台跑步机来解决。

3. 总结思考

本文主要讲了该公司所设计的一个体视频采集环境的工作流程,以及遇到的一些问题和解决方法,他们的体感视频采集主要是用做 AR/VR 环境,可以在 Unity 或 Unreal 整合入一些背景。从图片看,采集环境整体颜色为白色,便于后续处理,有几对黑点,应该是文章所说的 16 个立体像对(stereo pair),放的是摄像头。照明系统很厉害,不仅实现完全无阴影的漫射照明,而且还有可编程快速载入的光照模板,用来捕捉快速运动的对象,还具有一定光照灵活度(这部分文章没说清楚是怎么做的)。

采集流程包括:摄像头色彩校对(16x2 个摄像头),色差键控(用来更好地区分前景背景之类,用了高饱和度),深度估计(IPSweep 算法,文献 3 和 4),3D 数据融合,3D 点云构成,网格后处理(把数据转化成 CGI 形式),网格缩减(适应目标设备和受感区域如脸),网格编码(音频视频分别编码,多路传输),网格流(用网格注册方法),导入 AR/VR 应用。网格与 CGI 的关系、为什么要用网格的问题我并不明白,缺乏相关基础。网格注册(mesh registration)的具体步骤也是没领会到什么内涵。这需要进一步学习才能领会。Unity 和 Unreal 也需要花一些功夫。

该公司对光照系统的重视程度之高,令人震惊。他们认为可快速调节的光照有利于捕捉快速移动的物体,这一点我体会并不深,可能是经验还太少,我感觉打一些额外的光可能有用,但是更应该依赖高帧率的采集来实现,所谓快速调节的光照和模板,只是加快了采集,省去了改变灯光照射的时间。加跑步机的方法,后续还需要一些工作来抠掉跑步机,其实也比较麻烦,容易引入一些误差,莫不如把拍摄环境的底盘就设计成可转动的呢。文章没说怎样在拍摄完后还能保持光照的灵活性,我认为就改变对比度之类的就可以了,就是比较简单的方法了,不知道具体作者是怎么做的。

五、5G网络中目前最好的扩展现实

State-of-Art of Extended Reality in 5G Networks

1. 背景动机

AR 和 VR 在媒体工业界都有很大的重要性,但是市场整体对 VR 的接受度并没有预期高,业界的正在 AR 方向发力,认为 AR 在未来会比 VR 更有前景。AR 在手机上的应用也比 VR 更广。AR 的爆发一方面是由于最近移动技术的发展,另一方面是 5G 网络的保障。5G 作为无线交流的基础设施,将能够满足扩展显示(XR)对带宽和低延迟的需求。本文涵盖了与基于 5G 网络的 XR 系统关的一些例子,建筑(architectural),协议和代码领域,及其在 3GPP 和 MPEG 标准化组织中的 state-of-the-art。所谓扩展现实指的是通过计算机技术与可穿戴设备实现的环境与人机交互的虚实结合,包括增强现实,混合现实,虚拟现实等。将 XR 整合入网络的话,需要考虑一些不同的领域,包括应用数据下载大小 (GBs),流沉浸式场景(10Mbps)等。

2. 基于 5G 的扩展现实案例

这部分主要谈 3GPP 考虑的一些基于 5G 的 XR 案例:

流(streaming) 典型的流媒体体验可以用场景中的 6DoF 的容量来提高。6DoF 动作和交互可以通过改变场景中内的视角和头盔显示器与头的移动来实现。用户的情绪反应(包括面部表情,眼动,信条,生理数据等)可以通过身体传感器在观看时收集,个性化的故事线可以根据情绪类别创建。流的播放可以通过 AR 眼镜或室内的的某一面墙来实现。几个同时在场的用户也可以交互。本应用依赖于体视频和 6DoF 采集系统。

游戏 多玩家的 VR 游戏可以让不同地的玩家在同一空间游戏。交互和视频质量(至少 60fps,8K 分辨率)非常重要。玩家可以通过使用控制器或移动来改变游戏中的位置。游戏观众应该能够有两种视角:玩家视角或观众视角。观众和玩家的交互也是可以做设想的。本应用中,编码,渲染,标准传感器接口等对于多平台是有效的,低延迟是必须的。

实时 3D 交流 视频聊天可以通过头部 3D 模型来捕捉,接受方可以做一些旋转。多方 VR 会议支持在 360° 视频中与会者的混合表现,使用预先设定的会议背景。一些与会者可能覆盖在 AR 表演上。创建一个虚拟会议空间,参与者的替身可以移动或与其他替身交互。远程与会者使用 HMD,音频是双声道或空间渲染过的。目前的 3GPP 标准需要被扩展以支持动态 3D 物体,空间音频,和 6DoF 框架,多设备媒体同步,以网络为基础的媒体处理功能,背景迁移,HMD 替换等。

工业服务 例如远程指导。需要有 AR 眼镜,远程助理指导一个本地人维修工业机器。这个远程助理可以实时通过本地人的 AR 眼镜来观看。部分指导可以直接发到 AR 眼镜上。

信息收发(messaging) 目前的 MMS 服务可以扩展到支持 3D 图形信息。这是通过装备了深度摄像头采集 3D 图形的设备来实现的。需要制定一些关于网格、点云、深度层图的标准。

其他应用包括训练(可能是最大的市场),自动化(工程,设计,销售),位置为基础的娱乐,数字模型,3D 全息展示,自驾车中的游客娱乐,医疗,数据可视化等等。

3. 基于 5G 的扩展现实的技术

这部分主要讲如何在体视频数据的帮助下演示 3D 虚拟媒体,以及 XR 的一般结构。XR 应用重要的一部分就是把 3D 沉浸式媒体和体视频演示,增强或混合入真实环境,其中关键的一步就是用场景和物体的 3D 表达来实现 6DoF 体验。目前此类内容存储和传输最相关的格式有:

PLY 格式 用一系列头顶,面部或其他元素及其关联属性描述 3D 物体。一个 PLY 文件描述一个 3D 物体,3D 物体可以是合成的也可以是从真实场景捕捉的。关联属性包括颜色,曲面法线,纹理坐标和透明度等等。

OBJ 格式 是一种表示渲染器命令集的文本格式。命令分别用不同行表示,空行表示终止。每行第一个字母表示命令类型。

USD(Universal Sense Description) 由 Pixar 开发并已开源,目的是为视觉效果行业提供跨平台图像格式。USD 提供了图像的多文件来实现场景分割和合成,其关键特点是可以平行处理场景

gITF 2.0 一种新的场景表达标准,用 JSON 表达以方便网页背景合成。该标准特点是冗余较少,可以在相同场景中给不同物体提出有效的索引。

Open Scene Graph(OSG) 是一套可以提供场景图像的库,但同时也允许定制场景图像处理的扩展。 业界并没有统一的共用的文件格式,引出需要更多对齐和标准化工作。

为了捕捉 3D 场景和物体(包括体视频和点云数据),存在一些体态的捕捉方案提供者:

Volucap 即第四篇文章的内容和作者单位。捕捉环境直径 3m,高 6m,有 32 个高分辨率摄像机。捕捉到的数据每分钟有 2TB,可以最终处理转化成 3D 数据。

4DView 捕捉环境直径 3m,高 2.4m,帧率 60fps,每个视频的每分钟需要处理 10 小时。

微软 Mixed Reality Capture 有多个部署。最近的部署在 Culver City,3m 直径,106 个摄像头(53 个 RGB,53 个红外),采集结果是一个包含网格信息和纹理图像的 mp4 文件。

Intel Studios 900 平米场地,96 个高分辨率摄像机。采集到的数据通过光纤光缆传输,速度达到 6TB/min,用包含 90 个处理单元的服务器场来创建体视频数据。

8i 有多个采集环境,一个是 2.5x2.2m,一个是 1.5x2m 的便携舞台,各装备有 30 个采集摄像机。一个本地处理场来创建最终的体视频流,点云,MP4 流等等。

Jaunt XR-Cast 使用 6 个 Intel real-sense 来捕捉较小的区域,需要的硬件较差,分辨率也较差。

一种有前途的代表体媒体的格式是点云,由于点云有高的空间分辨率。MPEG 证明了编码动态 3D 点云在客观和主观质量上都很好。Video-based Point Cloud Compression (V-PCC) 的一种优势就是依赖于商业上可获得的 2D 视频编码标准和技术,VPCC 因此可以方便地应用于当前的硬件。Geometry-based PCC(G-PCC)由 MPEG 推动,把点云存储在八叉树结构上,是一种更复杂的加工编码形式。

文章认为仍然需要一种新的结构来促进完全的端到端管道,下图是一种 3GPP 正在讨论的广义 XR 分布计算结构,3D 渲染是其一个重要亮点,或者在用户的直接视角,或者转化为简单形式在设备中处理。渲染是基于动作姿态的本地纠正来做的。图像工作负载被分为 XR 服务器上的渲染负载,和设备上的简单渲染,有利于移动和脱机 XR 设备。该设计还需要更多讨论和分析改进。

4. 基于 5G 的扩展现实标准

2016 年 MPEG 发起了 “沉浸式媒体的编码表示” 项目,称为 MPEG-1,期望其能带来交互沉浸式媒体服务领域的变革。在此标准下发展出了一些技术和因素,包括:沉浸式媒体架构(现在的架构开始关注分布式渲染,提取媒体功能和要求,把网络化与压缩后的媒体整合入 6DoF 等),全向媒体格式(OMAF,最早是联合利用 MPEG 压缩,与存储归档文件设计,目前关注于多视角 6DoF,镶边或覆盖图,以及提高视口自适应的流),通用视频编码(VVC,显著提高了高分辨率视频压缩效率,仍被期望为沉浸式媒体信号编码提供更多支持,HEVC 覆盖概念被期望能提高灵活度来允许同一场景下不同物体的编码),沉浸式音频编码(IAC,支持丰富、沉浸式、高交互度的音频),点云编码(点云容易采集和渲染,MPEG 提出了 VPCC 和 GPCC 可以用于压缩点云),基于网络的媒体处理(定义一个框架在网络中来描述、部署、控制媒体处理)。还有一些比如 6DoF 视频表示与压缩还在讨论中,传统 MPEG 技术和 MP5 文件格式、DASH 流也进行了提高以支持体视频媒体存储与传输。

在 3GPP(第三代移动通讯合作计划)中,有以下沉浸式服务相关标准:沉浸式音频服务(IVAS,用于口语音频、多流电视会话、VR 会话、用户生成的实时或非实时流),QoE 度量(QoE Metrics,用于度量设备容量与延迟),用于远程终端的沉浸式电视会话与网真(ITT4RT,用于引入沉浸式媒体来支持对话服务),5G 媒体流框架(用于提供流服务包括边界计算的框架)。

最终,Khronos 集团提出了一种重要的方案来统一设备功能和 API,OpenXR (跨平台,便携,虚拟现实)定义了 AR/VR 应用的接口。OpenXR 0.90 与 2019 年 3 月发布,定义了两种级别的 API 接口:APP 和引擎使用标准接口来做继承并驱动设备,设备可以自我整合到标准驱动接口上;标准化的硬件软件相互作用以减少破碎,实行细节仍保持开发以鼓励创新。为了支持浏览器上的沉浸式体验,网页 XR 设备 API 规范由 W3C 发展起来。

5. 总结感受

本文讲了许多机遇 5G 网络的 XR 系统的案例,结构,技术,实践和标准,内容比较杂,有综述和科普性质。一个直观印象就是 OpenXR 很重要,很关键。谈到各类体视频采集工作室时,感觉用 6 台 realsense 搭建的 Jaunt XR-Cast 值得多研究一下,相比起其他的应该更好复现一些。从文章内容来看,我感觉 5G 最大的作用就是在带宽和低延迟方面带来的提升,其他提升文章貌似没有讲到。

原文发布于微信公众号 - 媒矿工厂(media_tech)

原文发表时间:2019-10-03

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券