学习
实践
活动
专区
工具
TVP
写文章

福兮祸兮人工智能

本报见习记者 李晨琰

毫无疑问,近几年人工智能的发展给了我们许多兴奋点,它使我们的生活更为便利,也增添了许多乐趣。然而人工智能迅猛的发展却也不免让人产生担忧。英国著名物理学家斯蒂芬·霍金就曾严厉批评人工智能,他认为这种强人工智能很有可能意味着人类历史的终结。

尽管鲜有人认同其观点,但我们不得不注意到人工智能对人类存在的 “威胁”。日前,一场围绕 “脑科学与机器学习”的专家对话在复旦大学举行 ,聚焦众人目光。会上,复旦大学新闻学院教授张力奋提到两组关键数据:全球咨询企业高德纳 (Gartner)预计,到2020年,世界范围内的客户服务工作将有85%会由人工智能来完成;同时麦肯锡咨询公司去年出台的报告称,到2030年,也就是12年以后,人类将 “丢失”8亿个工作岗位,这些都会由人工智能来替代。

真实情况是否如此,未来人类大脑又将如何与人工智能竞争?英国皇家学会院士、2017年“大脑奖”获得者彼得·达扬(Peter Dayan)和伦敦大学学院计算机系计算神经科学教授李兆平教授分别从脑功能研究的以及计算机科学研究方面谈论了人工智能的发展。

与会专家认为,武器本身不值得恐惧,真正值得恐惧的是掌握武器的人类,当我们弄清何为脑科学、何为人工智能,并能拥有更好的国际范围内的伦理道德规范制约的话,困扰我们的问题便将挥之而去。

脑科学是科学,人工智能是工程学

脑科学与人工智能有何关系?李兆平言简意赅: “脑科学是科学,人工智能是工程学。”她指出,脑科学能够发现和理解自然,而人工智能则是发明出来的,科学和工程其实是相互交织的,它们都会给人类社会带来影响。

大脑是一个输入输出装置,而视觉系统是大脑当中最大的感官系统。人的整个视觉系统是从眼睛开始直接连向大脑的内核。 “五官为例,听觉、视觉、嗅觉、触觉、味觉等可以兼具输入和输出的功能。”李兆平举例,比如视觉,一幅图片看进来就是输入,而在大脑当中想象其背后的信息,就是输出。

如果你仔细研究大脑中这些视觉系统的话,会发现其内部形成了非常复杂的回路系统,这里面有很多组件——神经元,你可以把它想象成是大规模集成电路中的一个电容。

大脑的不同部分可以和视觉系统当中不同的器官或者说零件进行沟通对应。曾经有个简单的实验,相同的观察对象,不同的人有时会看到不同的东西。其实我们观察事物的时候还是非常盲目的。视网膜仅仅起到摄像机或照相机的作用,真正让你看到东西的是你的大脑。有时候我们看到的东西是我们想象的东西。因此,要研究其中原理,不能割裂学科,而需要心理学、解剖学、脑科学等多方面知识共同构建的一个知识库。

当然,这其中最关键的是,大脑是在解决计算问题。 “大脑在面对残酷、糟糕的坏境中的生存问题 ,为了使人生存得更好,需要解决复杂的计算问题。那么,人工智能需要面对同样的问题。”李兆平表示,不论是解决视觉识别问题亦或是彼得·达扬所研究的大脑需要解决的行为决策都离不开这一核心。

大脑要解决复杂的计算问题,人工智能同样需要“大脑在做决策时有多项机制同时进行,这些不同机制互相竞争、合作,背后是有理由的。”彼得·达扬认为,得益于技术的发展,如今科学家可以同时记录成百上千的神经细胞信号,我们更能理解人类大脑中发生的细节。

彼得·达扬表示,我们需要对复杂的信号进行解读,这样才能从许多不同的时空尺度来看大脑里如此多个部件的相互作用。我们需要定量的方法去解释这当中的复杂性,从而预测实验结果。 “因为它们占据着不同的最有效点,不同的机制需要不同程度的数据和学习,它们在统计和计算之间的权衡。了解大脑如何做决策,能够更好地帮助我们设计人工智能如何去做决策。”彼德·达扬说。

他举例,此前韩国职业围棋选手李世石输给 “深思” (Deep Mind)研发的人工智能 “初级围棋” (Alpha Go)。“李世石大脑做走棋决策的过程,和一台 “深思”设计的计算机做走棋决策的过程,同样是个计算过程。我们领域理解到的,也是我自己研究的其中一点是,在做决策的计算过程中,大脑中用了很多不同的机制,而不仅仅只有一个机制。值得注意的是,不同机制的竞争会引起问题,从而导致有问题的决策,人工智能要应对同样的问题。”

大脑决策机制研究中的 “奖励机制”

近几年,彼得·达扬将研究重点放在了大脑决策机制研究中的 “奖励机制”上, “脑科学与人工智能的研究关联,关键在于大脑是否像计算机一样工作,是否和计算机的工作原理有高度的相似性。从决策制定的角度出发,大脑会通过非常精确的机制对现有的问题来进行解决应对,这像计算机可以进行编程一样。”

人类和其他动物的大脑有一个机制,会给自己尽可能更多的奖赏,同时尽可能避免去惩罚自己。这种能够识别外部事物并且做出奖励最大化、损害最小化的决定的行为机制,与目前人工智能流行的算法非常相似。

“大脑奖赏回路机制在奖赏预期误差方面会产生 ‘双刃剑’,换句话说,如果被用在错误的情景中,往往会带来非常糟糕的后果。”彼得·达扬以 “美食案例”解释了大脑对奖励的预测机制。例如,你吃一样东西,是否会因为这样东西非常好吃,吃得越来越多,如果你觉得好吃,大脑中会分泌一种物质,以鼓励行为的持续。如果这种行为是正确的,带来的固化效应也将是正向的,如果这是一种非常糟糕的行为,或者说病理上认为是病态的行为,显然将会使你的做出决策变得非常艰难,之后反而会抑制你的决策机制。这样的情况出现以后,可能会产生灾难性的后果。

大脑对奖励的预测可能产生误差,这可以帮助人们了解和治疗一些精神疾病。比如说,抑郁症患者的奖励系统不是像 “上瘾”一样被提升,而是被抑制了。最后,彼得·达扬提出了一种推测:即使是人工智能,如果它们对世界有足够的适应性,也会遇到与人类同样的问题。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180713A04R0V00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

关注

腾讯云开发者公众号
10元无门槛代金券
洞察腾讯核心技术
剖析业界实践案例
腾讯云开发者公众号二维码

扫码关注腾讯云开发者

领取腾讯云代金券