编者按:本文作者为Nancy Mendoza,近日她对AI(人工智能)专家Murray Shanahan教授进行了一次采访,就全新的Leverhulme AI研究中心和AI的未来做了一番讨论。Shanahan曾担任电影《机械姬》的剧本写作顾问。
怎么定义来AI呢?简单来说,电脑要能在一定程度上拥有自己的思维。眼下,自动驾驶汽车就算是一种AI,而科幻小说中的像人类一样的AI则暂时还只是个梦。
设立Leverhulme研究中心的初衷是为了探索AI发展中的机遇和挑战,搞清这一划时代的技术到底会对人类造成什么影响。该研究中心由剑桥大学,帝国理工学院,牛津大学马丁学院和加州大学伯克利分校共同出资建成,而Shanahan教授则是帝国理工学院在该研究中心的负责人。
研究中心的职责是什么?
AI对人类的影响分为短期和长期,该研究中心的职责就是要从不同的角度分析这些影响。计算机科学家,哲学家,社会科学家和其他专家会齐聚研究中心,共同探讨AI引发的一系列技术,哲学和实际问题。
既然该研究中心事关AI的未来,对该技术有什么期许呢?
有了孩子后,AI到底会走向何方就成了一个非常现实的问题。毕竟该技术未来会在孩子们这一代扮演非常重要的角色,作为家长,我当然希望该技术能起到积极的作用。
说起AI的前景我就会兴奋得像个小孩子,甚至会找回我小时候看阿西莫夫科幻小说和2001太空漫游时的那份心情。不过,在为这一技术激动的同时,我也会有些许担心,因为它会在社会和哲学层面对我们的世界产生深远影响。
您在研究中心扮演什么样的角色?
在过去的十年中,我一直在对大脑的工作方式进行研究。此外,我还编写了许多代码来模拟人脑神经网络的运作方式。最近,我还对AI的社会和哲学影响进行了深度思考。而Leverhulme中心让我能更好的分配这两项工作的时间,提高工作效率。
因为我参与了AI开发核心的建设,所以自然而然的我就成了项目中技术和社会哲学之间沟通的桥梁。
说到长期影响,您认为该研究中心能及时阻止科幻小说中出现的机器人造反等情况吗?
有可能,不过直接将科幻小说中出现的可怕场景当成AI的长远影响有些不合适。科幻小说中的AI有些过于人格化了,所以看起来非常邪恶。这非常有利于编剧发挥,但却会对我们正确认识科技产生负面影响。
即使AI未来变得相当智能,它也不必长出一副人类的样子。相反,人类可以对它们下指令,不过由于它们相当智能化,所以在执行任务过程中很可能会加入自己的想法,从而引起一些副作用。
来自牛津大学的Nick Bostrom也是研究中心的一员。他创造了一种名为“如何更好的制作回形针”的思维实验,实验中AI机器人需要找到制作回形针的最佳方案。其实进行这种实验比看科幻小说有意义的多。
所以,您不再迷恋科幻小说了吗?
其实我还是很喜欢看科幻小说,最近我就做了科幻电影《机械姬》的剧本写作顾问。该电影的编剧发邮件告诉我想让我帮他把把关,我觉得他剧本写得很不错,于是就有了进一步的交流。他想知道剧本中关于AI的部分是否符合科学事实,想知道AI到底应该是什么样的。最后电影中我的书居然成了隐藏的线索,它变成了主角编写的Python代码,如果你运行这一代码,就会出现那本书的ISBN编号。
我认为科幻小说在社会批判和哲学领域都有其重要的作用,人们会通过它对科技发展有一个更为深刻的思考。
《机械姬》的故事中有着古希腊神话普罗米修斯的影子,这也是20和21世界科幻小说中最常用的隐喻——科技发展后便会反噬人类,就像科学怪人那样。艺术作品对该主题的探索也提醒我们思考AI的未来,不过我们在方式的过程中一定要分清艺术作品的哲学和娱乐价值。
AI在短期内会有什么影响呢?
说到短期影响,我们可以拿近几年的例子作为参考。最好的例子就是自动驾驶汽车,该技术已经相当成熟,据正式量产也不远了。即使在短期内完美的自动驾驶还不现实,但未来几年还是会出现越来越多的自动驾驶车辆。
除了工程方面的挑战,自动驾驶汽车还会在就业市场掀起巨大的波澜,许多司机很可能会因此下岗。此外,自动驾驶还会造成许多法律纠纷:当事故一方是自动驾驶车辆时,到底谁该负责呢?汽车总不能为自己的行为负责吧?
另一方面,自动驾驶汽车也会推动社会进步,恶性事故的大大减少就是其主要表现。人类的注意力很难长期集中,极易引起交通事故,而自动驾驶汽车中的电脑可不会感觉疲倦。
自动驾驶汽车还会为保护环境做出巨大贡献。它完全由电脑控制,所以不会有人类的不良驾驶习惯,因而也会更省油,污染更小。研究中心的任务就是对生活中活生生的例子进行研究和反思。
帝国理工学院会解决那些短期问题呢?
理工学院在研究中心的主要任务是将智能机器的决策过程透明化。在对AI的研究中,理解机器的决策过程是非常重要的一环,毕竟真正的主宰还是人类,我们可不想对机器人的判断深信不疑,因为即使是智能机器也会出错。
举例来说,理论上来说图像识别软件可以精确识别出图片库中的猫科动物,它们甚至可以分辨出美洲豹,雪豹和猎豹之间的不同,但如果面对一个装了美洲豹沙发罩的沙发,这个软件很有可能就会出错。
为了保证整个决策过程中人类的参与和监督权,科学家们应该对其底层技术进行修改,以便人们能知道智能机器到底想干什么。或者我们可以对其进行逆向研发,这样就可以更好的了解智能机器的决策过程并及时加以干预。
在解决长远问题中帝国理工学院会扮演什么角色呢?
假设我们造出了非常强大的AI,它可以彻底解放我们的双手,让我们免于每日辛勤的劳动,到时我们的世界会变成什么样?后工作时代一个有意义的生活又是什么样呢?
此外,帝国理工学院还非常注重对哲学上所谓“思维空间”(space of possible minds)的研究,毕竟这地球上拥有思维能力的生物不止人类一种。假设AI拥有了人类的认知能力,是否就意味着思维空间得到了拓展呢?
在这一问题的研究上,我们一直在和剑桥大学的Nicky Clayton和Lucy Cheke教授进行合作。他们都对比较认知非常着迷,此前一直在对高智商动物如鸦科鸟类进行研究。
我们真的能创造出类人化的AI吗?
现在当然不太可能,毕竟眼下最复杂的AI都不一定比你的面包机强,因为它感知不到周边的世界。扫地机器人在这方面做得还不错,它能在行走过程中躲避障碍物,不过这一过程跟我们所说的独立思考也没任何关系,至于意识,它就更不可能有了。
现下我们不敢,也没有能力将人类的智能整合进AI中,不过在研究中我们可不会考虑这些因素。AI到底会走向何处,我们拭目以待。