首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

苹果新专利 借助全息技术让AR眼镜更有沉浸感

苹果新专利 借助全息技术让AR眼镜更有沉浸感

本文由腾讯数码独家发布

根据国外媒体报道,苹果未来的增强现实耳机可能会使用全息组合器技术,将光线投射到佩戴者的眼睛上,而用于监视用户注视的眼球跟踪系统,则可以根据用户的的主动注视位置提供更多有关环境的信息。

关于苹果公司所谓的AR耳机或智能眼镜之前有很多传闻,还有一些监管文件显示,该公司正在探索这种类型产品的更多可能性。尽管市场上已经有很多VR和AR头戴设备,但苹果似乎仍热衷于解决天然存在的设计问题,一旦苹果的发布,就能提供带来一种更好的解决方案。

美国专利商标局周四公布了“显示设备”(Display Device)的专利申请。该专利申请描述了一个复杂的系统,可以用AR耳机向用户显示图像。苹果并没有使用显示环境和虚拟内容的复合视图的显示器,而是提议使用“反射全息组合器”来达到同样的目的,在反射AR元素光线的同时通过环境光。

全息组合器与光引擎一起使用,将光投射到组合器的特定点,以创建场景的表示。该光引擎可以由多个图像投影系统组成,包括激光二极管、led和用作凹形和外围投影机一部分的其他光源。

中央凹陷投影仪的目的是为视网膜的中央凹部分提供高细节的图像,而外围投影仪可以为不能在同一水平上辨别细节的视网膜其他区域提供低分辨率的图像。光引擎还可以包括带有全息光栅和衍射光栅的光学波导,以特定角度产生扫描镜的光束,然后将光束定向到其他波导,并将其送入全息组合器。

专利应用程序开发的关键原因是消除“容纳-收敛不匹配问题”,即虚拟对象被覆盖在环境上,而不考虑用户希望它具有的景深级别。在某些情况下,这种视觉错误会导致眼睛疲劳、头痛和恶心。

苹果公司希望通过在用户视觉的中心凹和周边区域安装投影仪,再配合一个眼球追踪系统来确定用户的视线,从而一劳永逸地解决这个问题。

苹果还建议使用全息组合器,这样就不需要额外的运动部件或机械元件来补偿眼睛的位置变化,或者在扫描过程中改变光功率,这一发展简化了系统架构。这也建议全息合并器可以实现使用一个相对平坦的透镜,而不是弯曲的反射镜用于直接视网膜投影仪系统。

第二份专利申请文件试图涵盖凝视元素,文件的标题是“带有凝视跟踪的图像增强设备”。这份文件并没有涉及硬件方面的内容,而是在很大程度上涵盖了让增强现实场景适应现实环境的意图。

该系统主要由一个捕捉世界的摄像头、一个注视跟踪系统和一个显示器组成。凝视跟踪系统被配置为确定注视点信息,而控制电路被配置为根据该数据显示各种内容。

这些数据可以包括“放大的补充内容”,比如真实世界的放大图像、计算机生成的图形和其他元素。外部摄像头用于识别用户在现实世界中的视觉区域,这些区域可能是用户感兴趣的点,还可以添加额外的信息供用户使用,比如人脸和物体识别。

这可能导致一部分功能,比如使用光学字符识别来查看场景中的文本,然后用另一种语言为用户提供更具可读性的版本。

虽然注视点可以帮助告知要向用户提供什么数据,但文件还建议使用“注视点手势”来触发这些元素,并在用户的视线停留在某个特定点时使用“停留时间”来显示数据。也可以使用闪烁,比如连续快速重复闪烁,启用或禁用缩放功能。

通常来说,苹果每周都会提交大量专利申请,但尽管专利的存在表明了这家iPhone制造商感兴趣的领域,但它并不一定能保证这些概念会进入未来的产品或服务。

在今年6月提交的一份文件中,一个中心凹式显示器的想法遭到了曝光,它将用户正在积极寻找的高细节图像与面向外围的低分辨率版本相结合。苹果公司提出,由于减少了耳机显示器需要更新的数据量,该系统可以帮助提供更高的刷新率。

而目光跟踪还可以帮助VR系统变得更加精确,比如在8月份的一份文件中,该文件建议,如果头盔在运动过程中与用户的眼睛移动不同,可以用它来减少“漂移问题”,从而持续纠正显示器的显示。

除了传言和文件外,苹果最近还在iOS 13内部测试版和Xcode beta版中提到了增强现实眼镜,这实际上证实了这款AR眼镜设备确实正在开发之中。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190919A0RU4L00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券