人工智能会像人类一样拥有意识吗?

在人工智能的发展过程中,有一个问题人们一直很担心,就是人工智能会不会发展出意识。麻省理工学院物理学教授迈克斯·泰格马克在《生命3.0》这本书里讨论了这个问题。泰格马克不仅是平行宇宙理论研究的专家,也是人工智能领域的代表人物。

关于“意识”是什么,一直有争论。泰格马克在这本书里,把意识定义为“自我体验”。并且,这种自我体验不需要和行动联系在一起。比如,一个瘫痪的人,虽然不能动,但他可以有感觉,所以这个人仍然是有意识的。

那怎么从科学角度来解释意识呢?泰格马克借用了神经学家朱利奥·托诺尼提出的“整合信息论”。根据这个理论,一个物理系统如果要有意识,需要两个条件,一是这个系统必须有丰富的信息,二是这个系统必须有高度的整合特征。举个例子,虽然人的大脑和电脑的硬盘,都可以存储十分丰富的信息,但大脑每次接受信息的时候,都会生成数十亿的交叉连接,所以有很高的整合性。比如人们看了一段动画之后,看到的是一段完整的情节,而不是把这段动画分解成一幅幅画面,或者一个个像素。而硬盘就没有整合性这个特点。从这一点上来说,大脑是有意识的,硬盘没有。

如果我们认同“整合信息论”,就至少可以从理论上知道,意识不一定是人类特有的,人工智能也可能发展出意识。当然,这种意识的形式可能和人们理解的不一样。并且根据相关的物理特性,一旦人工智能发展出了意识,它的范围可能比人类的更广。

虽然这个结论否定了人类的独特性,但泰格马克则认为,认识到人类的意识并不是唯一的,实际上给我们提供了一个很好的反思机会。我们可以用这个机会来学会谦卑,学会去理解世界、理解生命的意义。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181002A0244100?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券