这个被称为水库计算系统的网络能够在对话之前对其进行预测,并帮助预测未来的结果。
由密歇根大学电气工程和计算机科学教授魏璐率领的油藏计算系统研究小组最近在Nature Communications上发表了他们的研究成果。
教学芯片
过去用较大的光学元件创建了能改进典型神经网络容量并减少所需训练时间的水库计算系统。然而,UM集团使用忆阻器创造了他们的系统,这种系统所需空间较小,可以更容易地集成到现有的基于硅的电子器件中。
忆阻器是可以执行逻辑和存储数据的特殊类型的电阻设备。这与典型的计算机系统形成了对比,处理器执行的逻辑与存储器模块分离。在这项研究中,吕的团队使用了一个特殊的忆阻器,只记录近些年来的事件。
受大脑启发,神经网络由神经元,节点和突触组成,节点之间的连接。
为了训练一个任务的神经网络,一个神经网络需要大量的问题和这些问题的答案。在这个所谓的监督式学习的过程中,节点之间的连接权重更大或更轻,以最小化实现正确答案的错误量。
一旦训练完毕,神经网络就可以在不知道答案的情况下进行测试。例如,一个系统可以处理一张新照片,并正确识别一个人脸,因为它已经从其训练集中的其他照片中学习了人脸的特征。
“很多时候,培训一个网络需要几天或几个月的时间,”Lu说。“这非常贵。”
图像识别也是一个相对简单的问题,因为它除了静态图像之外不需要任何信息。更复杂的任务,如语音识别,可以高度依赖上下文,并要求神经网络了解刚刚发生的事情或刚才所说的内容。
“当把语言转换成文本或翻译语言时,一个单词的含义甚至发音都会根据以前的音节而有所不同,”Lu说。
这需要一个经常性的神经网络,它在网络中包含循环,给网络带来记忆效应。但是,培养这些经常性的神经网络特别昂贵,Lu说。
然而,使用忆阻器构建的水库计算系统可以跳过大部分昂贵的培训过程,仍然可以提供网络记忆功能。这是因为系统中最关键的组成部分 - 水库 - 不需要培训。
当一组数据输入到储层中时,储层识别数据的重要时间相关特征,并以更简单的格式将其传递到第二网络。然后,第二个网络只需要像更简单的神经网络一样的训练,改变第一个网络传递的特征和输出的权重,直到达到可接受的误差水平。
Lu说:“水库计算的美妙之处在于,我们设计时不需要训练。
该团队使用手写识别测试来验证储层计算概念,这是神经网络的共同基准。数字被分解成像素行,然后用像莫尔斯电码那样的电压输入到计算机中,黑暗像素的电压为零伏特,白色像素的电压为一伏特。
与仅需88个忆阻器作为节点来识别手写版本的数字相比,传统的网络,将需要数千个节点的任务,油藏达到了91%的准确性。
油藏计算系统尤其善于处理随时间变化的数据,如数据流或文字流,或依赖于过去的结果的功能。
为了证明这一点,团队测试了一个复杂的函数,这个函数取决于多个过去的结果,这在工程领域是很常见的。储层计算系统能够以最小误差对复杂函数进行建模。
Lu计划用这项研究探索两条未来路径:语音识别和预测分析。
“我们可以对自然语言进行预测,所以你甚至不用说全文。“我们实际上可以预测你接下来要说什么。”
在预测分析中,吕先生希望利用该系统接收带有噪声的信号,如来自远方广播电台的静态信号,并产生更清晰的数据流。
他说:“即使输入停止,它也可以预测并产生输出信号。
本文来自企鹅号 - 爱上飞行媒体
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文来自企鹅号 - 爱上飞行媒体
如有侵权,请联系 cloudcommunity@tencent.com 删除。