前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >观点 | Life 3.0:Stuart Russell带你展望AI时代的人类未来

观点 | Life 3.0:Stuart Russell带你展望AI时代的人类未来

作者头像
机器之心
发布2018-05-08 11:28:56
7760
发布2018-05-08 11:28:56
举报
文章被收录于专栏:机器之心机器之心

选自Nature

作者:Stuart Russell

机器之心编译

参与:路雪、李泽南、黄小天

近日,来自麻省理工的物理学家 Max Tegmark 出版了一本新书《Life 3.0 Being Human in the Age of Artificial Intelligence》,对人工智能在未来的发展进行了理性而深刻的思考。这本书引起了人工智能社区和科技界的广泛关注,也迅速登上了亚马逊人工智能&机器学习类书籍排行榜第一位。他的学术合作者,UC Berkeley 教授 Stuart Russell 撰写本文对该书做出了评价,同时也对人类在人工智能时代的未来进行了自己的思考。

「机器蜜蜂」可以在蜜蜂种群数量衰退的现在用于人工授粉,但也可能产生不可预见的影响(想想《黑镜》第三季第 6 集)

Max Tegmark 是一位著名物理学家。他也是麻省剑桥未来生命研究所的联合创始人,他的座右铭是:「科技正在让生活前所未有地快速前进……或是毁灭,我们应该将未来把握在自己手中!」最近,《Life3.0》这本新书传达了他对于未来发展——特别是人工智能发展的思考。Tegmark 认为,如果我们作为人类的「宇宙天赋」正被抛弃,那么是时候展开认真思考了。

该书作者 Tegmark 与我经常分享研究与文学心得。在 2014 年,我们与斯蒂芬·霍金、弗朗克·韦尔切克(2004 年诺贝尔物理学奖获得者)共同在赫芬顿邮报上发表了文章《论超级智能机器的超越自满》。它表面上是对 Wally Pfister 的反乌托邦 AI 科幻电影《超验骇客》的一篇影评,实际上则是一次呼吁,提醒人工智能社区对于智能系统的风险进行认真思考。我不大可能强烈反对《Life3.0》的观点,Tegmark 认为,生命不一定会在宇宙尺度下传播开来,同时「繁荣十亿甚至万亿年」,因为我们现在正被具有诱惑力和势不可挡的可能性吸引。

这本书的书名指进化史上的第三阶段。大约 40 亿年来,硬件(身体)和软件(生成行为的能力)都由生物学决定。而接下来的 10 万年,学习和文化使人类可以适应和控制自己的软件。在即将到来的第三阶段,软硬件都可以重新设计。重新构造身体和大脑听起来似乎有些超人类主义,但是 Tegmark 的关注点是可以在设备内部补充大脑机能的 AI。

Tegmark 考虑到其优势和风险。短期风险包括自主武器军备竞赛和就业人数大幅下降。AI 社区几乎一致谴责能够杀死人类的机器的创造,但是该研究引发了争论。很多人预测会有经济复苏——AI 促使新工作代替旧工作,和以往的工业革命一样。Tegmark 不无讽刺地设想 1900 年两匹马讨论内燃机的崛起……有人预测「马的新工作……这种情况以前经常发生,就像车轮和犁的发明一样。」对大部分马来说,「新工作」是成为宠物食品……Tegmark 的分析令人信服,经济学家如 Paul Krugman 也分享了他的分析。但是问题是:当我们现在的大部分工作都被机器取代时,我们想要追求什么样的经济呢?

长期的风险关系到人类的存在。本书的科幻开头描述了一种合理的场景,超智能 AI 可能出现。之后,Tegmark 讨论了从乌托邦到人类被奴役甚至灭绝的全局结果。我们不知道如何前往更好的未来,这指向我们缺乏对「为什么 AI 变得更好可能是件坏事」的严肃思考。

计算机先驱阿兰·图灵在 1951 年提出了人类最好的结局不过是被 AI 打压,表达了对制造出比自己更聪明的事物的普遍忧虑。通过拖慢 AI 的发展进程来缓解这种忧虑可能既不合理也不可取。《Life 3.0》最有趣的部分认为真正的问题是可能出现目标偏离。控制论创始人 Norbert Wiener 在 1960 年写道:「我们最好确定制造机器的目的是我们真正想要的。」或者,像 Tegmark 所说的:「如何使超智能 AI 的最终目标既不是未定义的,也不会导致人类灭绝,目前并不清楚。」我的看法是,这一技术和哲学问题需要我们集合所有智力资源。

只有我们解决了它才能获得收益。其中包括宇宙的扩张,其动力来自奇异的技术比如戴森球(Dyson spheres,它可以捕捉星球能量),在黑洞周边建造的加速器,或者 Tegmark 的理论喷发器(比如夸克驱动的柴油机,效率可提升十亿倍)。出于纯粹的科学兴趣,很难超越有关宇宙与物理学定律允许的上升空间的解释。比如,也许有一天我们把生物圈扩展到「32 个数量级」。接着了解到宇宙扩展将限制我们只能定居 100 亿个星系,这会让人很失望。「当暗能量摧毁宇宙文明的威胁催生出大量的宇宙工程项目之时」,我们似乎感受到了我们后代的焦虑。

这本书的结论是未来生命研究所的角色正从这些话题向主流人工智能思考转移——凭这点 Tegmark 绝对值得信赖。当然,在提高警惕方面,他并不是独自一人。在视野广阔度方面,《Life 3.0》与 Nick Bostrom 2014 年发行的《Superintelligence》(牛津大学出版社)非常相似。但是,与 Bostrom 不同,Tegmark 并不打算证明风险是不可避免的,他避开了深奥的哲学,并询问读者哪种情景他们认为更有可能或可取。

视频内容

尽管我强烈推荐这两本书,但我怀疑 Tegmark 不太可能在人工智能研究者中激起一种惯常的过敏反应——撤回到无需注意的防御性论据。下面是一个典型论据:我们并不担心遥远但具毁灭性的可能性,比如黑洞吞噬地球,那么我们为什么要担忧超级人工智能呢?答案是:如果物理学家正在制造这样的黑洞,我们会问他们黑洞是否安全吗?

《经济学人》对这一首要问题如此评价道:在地球上引入第二智族的意味非常深远,足以值得深思熟虑。Life 3.0 远不是人工智能的最终状态或未来,但它提供了对所需的深思熟虑的迷人一瞥。

原文地址:http://www.nature.com/nature/journal/v548/n7669/full/548520a.html

本文为机器之心编译,转载请联系本公众号获得授权。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-08-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档