某中心旗下基金投资的Cognixion公司,其辅助现实架构旨在通过将脑机接口与机器学习算法、辅助技术以及增强现实应用集成在可穿戴设备中,克服言语障碍。
当前该技术的具体体现是一款名为Cognixion ONE的非侵入式设备。它通过头显呈现交互对象,检测并解码与视觉注视相关的脑电波模式。这些信号使得用户无需动手或出声,即可控制AR/XR应用来生成语音,或向智能家居组件、AI助手发送指令。
设计的关键约束在于不能对用户的手、臂或嘴部的使用能力做任何假设。因此,交互设计的出发点是最极端的情况:用户完全没有身体自由度,唯一的自由度是“注意力”。通过向用户视网膜投射特定类型的视觉刺激,并观察其注意力反应,可以驱动与计算机的交互。基础的二分选择(如注视两个不同运动特征的图像)可以构建出完整的交互界面。
在此基础上,结合过去五到十年机器学习领域的巨大进步,可以更积极地预测用户的意图或情境的恰当性,从而最小化所需的交互次数。集成关于用户环境、先前话语、时间等知识,使架构能够利用最少的输入和强大的预测能力,帮助人们流畅高效地沟通。
首要目标是生成语音。关键技术突破在于提升“会话速率”。对于许多技术使用者而言,达到每分钟20-30词曾是遥不可及的目标。该技术致力于实现有意义的日常对话。
未来增强方向包括利用语音银行和文本转语音技术(如某机构网络服务的Polly),为每位用户提供个性化的声音,使体验更丰富、更有意义。
语音生成仅是广泛的“神经假体”功能之一。该技术也致力于实现与地点、物体和媒体的非语音交互。例如,正在构建的某中心Alexa集成,可让用户通过头显控制家庭自动化、智能设备,或访问新闻、音乐等。
长远来看,设备可使用户控制辅助导航的移动设备、处理家务的机器人,调节环境灯光和温度,从而让更多人更积极、独立地生活。
目标是算法上巩固和加强系统的可靠性与准确性。应用探索方面,正同时推进医疗通道和研究通道:
公司组建了由言语障碍人士、科学家、技术人员组成的“Brainiac Council”,以收集用户反馈。同时,也正寻求来自神经科学、神经工程、仿生学、人机交互、临床与转化研究以及用户体验研究领域的合作者意见,以确定最终的具体技术要求和用例要求。
该技术蕴含着巨大的机遇,研究社区设想的应用用例将推动其走向主流。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。