近日,可穿戴眼动追踪解决方案提供商 Ganzin Technology 宣布推出其具有开创性的 Gaze2AI 参考设计,实现了高精度的 3D 空间注视追踪,为人类与 AI 系统的交互带来了全新的可能。
Ganzin 早在上月于 AWE USA 2025 展会上就首次公开亮相了 Gaze2AI 方案,瞬间吸引了众多业内人士的目光。该方案依托公司自主研发的 AURORA IIS 硬件平台,并由先进的 Aurora-II 眼动追踪算法强力驱动,从而实现了人类与 AI 系统之间基于注视的深度交互。
Ganzin Technology 首席执行官 Shao-Yi Chien 表示:“就如同二维鼠标曾彻底变革人机交互方式一样,Ganzin 的 3D 注视技术必将重新定义人类与 AI 的互动模式。它是注意力驱动 AI 代理服务的核心技术,将开启一个全新的交互时代。”
据了解,Gaze2AI 参考设计具备强大的功能,能够在水平、垂直和深度三个维度精准追踪用户的视线,可以实时解析空间数据,并与 Gemini、ChatGPT、Qwan、Microsoft Copilot 等主流平台的 AI 进行无缝交互。Ganzin 将其称之为“3D 空间鼠标”,为基于注意力计算的 AI 应用奠定了坚实基础,支持多场景下的免手操作和上下文感知交互,让用户能够更加自然、便捷地与 AI 进行沟通。
Gaze2AI 的核心组件是 AURORA IIS 神经处理单元(NPU)眼动模块,这个模块包含一个尺寸仅为 2.3 x 5.6 mm 的 NPU、两个超小型红外眼部传感器(尺寸为 1.6 x 1.6 x 2.3 mm)以及两个红外 LED(尺寸为 1 x 0.5 x 0.45 mm)。整个系统重量不足 1 克,功耗低于 100 毫瓦,使其能够直接向主机传输实时注视数据,而且几乎不会增加主机的算力负担。
在 AWE 展会上,Ganzin 还展示了 SOL-to-GenAI 原型。通过 USB-C 将 SOL 眼动眼镜连接至智能手机,运行 Aurora-II 算法,能够精准捕捉用户的注视和视觉上下文信息,并通过无线方式传输至 PC,实时调用生成式 AI 作出响应。
这款 SOL 眼动眼镜配备了用于实现精准注视追踪的向内的红外摄像头与照明器,还搭载了一个用于捕捉视觉场景的 1.3K x 1.2K 彩色外向摄像头。其应用领域涵盖眼动数据研究、医疗、教育、游戏、智能制造等多个行业。
为了满足不同开发者的需求,Ganzin 还提供了完整可定制的 Design Kit。开发者可以根据自己的创意和需求,灵活调整 SOL 眼动眼镜的相机位置及外观形态,以适配不同的工业设计需求。