首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

传闻中的AppleGlass同AppleWatch一样,是手机的延伸

首先,传闻中的AppleGlass我认为同AppleWatch一样,都是作为手机的延伸,至少现阶段是这样。AppleWatch刚出几年的时候,一直充当着"手机通知接收器"的功能,直到第三代AppleWatch发布,同时开始搭载蜂窝可使用数据网络,苹果在慢慢探索Watch的独立性以及拓展延伸性,不得不说这几年发展很是成功。可穿戴式设备在手腕上的可能性在被不断探索,而一直在传说中的Glass也慢慢浮出水面。

与早年的GoogleGlass的重大区别在于,一来它并不搭载摄像头,这与苹果公司一贯注重隐私的理念十分吻合。再者就是其主攻方向在于AR领域,苹果公司已经布局多年了。今年的新款iPadPro上搭载的激光雷达扫描仪,已经让其成为难以逾越的AR标杆,我认为Glass很大概率也会使用这一技术。目前还不清楚苹果打算怎么将那么多传感器塞进眼镜架,但是苹果的工业能力毋庸置疑,相信总会有惊喜等着我们。

未来Glass必然成为穿戴电子设备又一大发力点,层出不穷的智能眼镜将会映入我们眼帘。想象有一天我们走在路上,不用再掏出手机或者抬起手腕看地图,道路指引信息直接投射到我们戴着的眼镜上;需要测量的时候我们也不用拿出尺子衡量,只需要透过眼镜去看被测物体,数据会直接反馈到眼前。但是软件的能力毕竟有限,真正要实现跨越式变革,依然需要专属硬件的加入。还记得苹果用整个iOS产品线押注的原深感镜头模组吗?

现在它的兄弟来了,LiDAR,激光雷达扫描仪。它首发于iPadPro2020,是苹果第二个专门为了AR研发的硬件传感器。第一个就是原深感镜头模组。LiDAR的原理和原深感镜头模组一样,通过探测自己发出的人眼不可见光,检测物体的深度信息。不同的是,原深感镜头模组最多只能检测到50厘米的距离,LiDAR虽然精度较低,但最长可以检测到5米。

这就可以实现我前面提到的:SLAM环境深度检测与实时建模。有了LiDAR,AR物体的呈现将会更自然,与真实场景的融合更完美。有了深度感知和前面说的机器学习实现的语义分割,设备实际上是以一个和我们一样的方式去同步地观察和理解这个世界,真正让设备拥有了"眼睛"。这才是苹果重视计算摄影的真正原因,醉翁之意不在摄影,在乎AR也。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200526A0LFPF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券