AI如何破译人类大脑中的思维

点击标题下「翰文网」可快速关注

“好想看看这人的脑子里到底有什么”,或许这个想法能成为现实了。

在欣赏绘画或设计师的作品时,有时会想,“这个人的脑子里到底是怎么样的?”有过这种想法的肯定不止我一个人。还有那些和自己拥有完全不同价值观的人,苦苦纠结于到底为什么会这样时,或许会想窥探一下那人的大脑吧。

前些日子,京都大学的研究小组发表了一项人工智能,正是拥有能窥探大脑内部之能力的AI技术。据说能通过人类的大脑活动模式,解读人正在想象的画面,并且能把想象中的事物或看到的事物转变成图像。

这一人工智能是根据什么原理生成图像的呢?据说是通过fMRI这一手法使大脑中的血流动态反应可视化,再让AI学习从那里获得的各种反应的信息。通过不断重复“这种反应就是这样的画!”的学习方式,直到能成功地再次成像。

至今为止,这一AI只能用黑白的像素色调描绘简单的图形或文字,但是,在此次实验中,它描绘的对象已经扩展到人物和物品,并且,据说还能描绘出其构造、色调和渐变等信息。此外,因为是读取大脑活动的机制,所以还能描绘出记忆中的图像。

那么,我们来看看这些被解析的图像。

上面一列是原始的字母图像,下面排列的是,不同被试者看见文字时大脑内的印象。虽然很模糊,但是隐去原始字母应该也能读取。

这个是图像的例子。最左边是原始图像,右边排列的是每个被试者脑内的图像。要从这些图像推测出原始图像似乎不太可能吧……

每个被试者的图像似乎都成了咖啡色细胞的团块,看着有点毛骨悚然,但是,可以看出物体和背景被区别开了,精度的提高显而易见。只是不同被试者背景的颜色不一样,这点令人有点担心,是每个人的认知不同造成的吗?

在尝试不直接看照片而是描绘记忆中的照片的图像时,生成的图像似乎不是很真切,似乎是因为无法回忆出图像细节的缘故。如果是留下强烈印象,或是平时经常看到的东西,或许可以做得更好。

这项技术进一步发展后,或许将来对往事的回忆全部都可以像漫画回忆那样与他人共享。

-THE END-

本文由翰文网译者原创翻译,经校对后呈现,或不经校对以双语对照形式呈现,由各位读者针对译作中的问题提出见解。转载请注明出处。欢迎在翰文网发表译作展示自我并建立个人口碑,获得更多翻译业务,同时得到翻译技巧指导和多项物质奖励。

本文译者

董旻

日文译者,在翰文网累计发表译作58篇。

翰文网个人空间链接http://www.cnposts.com/Member/2757.aspx

“输出型”翻译学习的倡导者

每个人都可以成为翻译家!

微信号:cnposts

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180212G0JR4100?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券