日本研究员建立了一个可以“读心”的神经网络

源Singularityhub译陈志扬

计算机似乎早已可以读懂我们的想法。不论是Google的搜索栏自动填充、Facebook的好友推荐还是在浏览网页时出现的定制广告内容,这些都会让我们忍不住想,“它们是怎么知道的?” 不论好坏,我们似乎正缓慢而明确地让计算机逐渐理解我们的真实想法,而日本京都研究人员的一项新研究则是这个方向上坚定不移的一步。

日本京都大学的一个团队利用一个深层神经网络读取并翻译了人类的思想,听起来是不是很不可思议?事实上这已经不是什么新的创意了,只是之前的解决方案和结果都十分简单,是基于像素和基本形状的图片解构。而被称为“深度图片重构”的方法则超越了二进制像素信息,使研究人员能解析那些具有多颜色和结构图层的图片。

“我们的大脑通过分级提取不同水平的特征或者是不同复杂度的组件来处理视觉信息”,其中一位研究人员这样和我们说,“这些神经网络或者人工智能模型可以替代人脑中的分级结构。”

这项研究持续了十个月,其中包括让三名志愿者用不同的时间长度观看三种不同类别的图片:自然图像(如动物和人)、人造几何图形,以及字母表中的字母。

在观看图片的同时以及之后,志愿者的脑部活动会被测量与记录。为了在他们观看图片之后测量他们的脑部活动,他们会被要求去回想那些看过的图片。

测量所得的数据之后被输入一个神经网络,这个神经网络会解析数据并生成它按照人类思维给出的理解。

对于人类而言,视觉皮层位于脑后部小脑上方的枕叶(事实上对于所有哺乳动物都是这样)。视觉皮层的活动由功能性磁共振成像(fMRI)测量,并将其转化成为深度神经网络的分层特征。

从一张随机图像开始,网络重复优化这张图片的像素值,使输入图像的神经网络特征接近于从脑部活动中解析出来的特征。

重要的是,这个研究团队的模型仅使用自然图像进行训练,却可以重构人造图形。这说明这个模型确实是基于脑部活动来进行图片的生成,而不仅仅是匹配训练样本的输出。

当人们被要求去记忆图像时,模型在解析脑部活动的过程中比仅观看图像更加困难,这一点并不令人意外。我们的大脑并不能记住图片的每一个细节,所以这些回忆往往有一些模糊。

研究人员还发现,重构的图像虽然与受试者看到的原始图像有一定的相似性,但在大部分情况下他们看到的还只是缺乏细节的斑点状图像。然而,这项技术的准确性必然会日益提高,它的应用也一定会更加广泛。

想象一种“即时艺术”,仅仅是在头脑里进行想象就可以创作出艺术品;或者人工智能记录下你睡梦中的脑部活动,重建你的梦境并进行分析。就在去年,一位完全瘫痪的患者做到了通过脑机接口与家人进行首次交流。

像京都大学所研究的这种模型,现实中总有千百万种新奇且有意义的应用途径。然而如果不当地使用,我们可以想见脑机接口也会带来一些怪异的、“黑镜”式的后果。神经伦理学家已经提出了四项新人权,只有遵守这些规定才能使“读心”技术不至于误入歧途。

除此之外,日本团队不是唯一一个致力于改进读心AI的团队。Elon Musk创立了著名的Neuralink公司就是意在建立人与计算机之间的脑机接口,其核心是开发可以读写神经元信息的集成芯片。

无论是重建图像、挖掘我们的潜意识,抑或是赋予我们全新的能力,我们最希望的还是这项“读心”技术能谨慎而小心地前行。

-END-

译者 陈志扬

西安交通大学在读本科生,机器学习爱好者。

了解如何加入我们

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180130G0HT4000?refer=cp_1026

同媒体快讯

相关快讯

扫码关注云+社区