在近期举办的 Meta Connect 大会上,Meta Reality Labs 首席科学家 Michael Abrash 发表演讲,重点展望了智能眼镜 AI 助手的发展方向,这也是他每年大会都会聚焦 VR/AR 行业趋势的固定环节。
据悉,目前 Meta 眼镜搭载的 Meta AI 以 “反应式” 为主,用户可让它播放歌曲、设计时器,遇到 “这是什么” 这类视觉问题时,它还能通过摄像头拍图分析后回应。不过该功能多为瞬态交互,而美国、加拿大地区已推出的 Live AI 虽支持免重复唤醒词对话,且能实时感知视野内容,但受大模型上下文窗口限制,第一代 Ray-Ban Meta 仅支持 30 分钟,新一代才提升到 1 小时左右。
Abrash 还提到未来智能眼镜 AI 将能后台持续运行,不仅会实时建立 3D 地图记录环境、用户动作及物体交互,还能通过存储这些日志提供 “情境 AI” 服务。比如用户直接问 “今天消耗多少卡路里”“钥匙放哪了”,不用提前录信息,戴眼镜就能得到答案。
要实现这一点,需大幅提升相关芯片与算法的能效,甚至可能需要定制传感器和芯片,目前 Meta 实验室正推进这两项研发;此外,眼镜还得有独立蜂窝连接,摆脱对手机的依赖。
值得一提的是,Meta CEO 扎克伯格此前也谈及 “始终在线情境 AI”,他认为其进展会快于多数人预期:“具体时间不好说,但肯定用不了五年,会更快。”