一些人工智能领域的大佬们正在发出警告。在本周二发布的一封公开信中,超过1,100名签署者呼吁暂停最先进的人工智能的开发项目。
“我们呼吁所有人工智能实验室立即暂停至少6个月不开发比GPT-4更强大的人工智能系统(包括目前正在开发中的GPT-5)”,这封公开信由旨在减少灾难和降低目前世界存在的风险的非营利组织“未来生命研究所”(Future of Life Institute)所发布。该信称:“应该透明化公开暂停这些人工智能开发项目,包括阻止所有关键人物在这方面的开发工作。如果这个暂停提议被接受且无法迅速实施,则建议政府应该介入并实施禁止令。”
这些是那些有权势的人物所发出的有力言辞。其中签署者包括埃隆·马斯克(Elon Musk),在2018年他退出之前,他曾协助过创立人工智能GPT-4的公司OpenAI,还有苹果公司的联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)和Skype的联合创始人扬·塔林(Jaan Tallinn)也都参与了联名签署。
更有趣的是,签署者包括人工智能领域的一些奠基人,包括开创深度学习人工智能方法的Yoshua Bengio,加州大学伯克利分校人类兼容人工智能中心的领先研究者Stuart Russell和DeepMind的研究科学家Victoria Krakovna。
这些了解人工智能的人警告称,人类社会对安排部署更先进的人工智能实验室还没有做好准备。
不过这封信也会让人想放白眼,毕竟,这封信的签署者里包含一些正推出新的人工智能模型的人,例如Stability AI的CEO Emad Mostaque,该公司去年发布了文本转换图像的模型 Stable Diffusion。
鉴于快速发展的人工智能所可能带来的潜在风险,我认为我们有两个选择。第一种选择是反对:“这些人把我们搞进了这个困境!”第二种选择还是反对:“这些人把我们搞进了这个困境!”——然后施加压力,尽我们所能阻止局势失控。
我想我们可以,并且也应该减缓人工智能的发展脚步。或许有些人认为我们无法减缓技术的进步。或者认为即使我们可以阻挡但我们也不应该这样做,因为人工智能可以给世界带来如此多的好处和便利。
当你仔细思考这些设想时,这些思绪都将开始分崩离析。
第一种设想,正如有人在论述减缓人工智能的理由时所写的那样,实际上对于人工智能来说没有技术上的必然性,也没有自然法则宣布我们必须在明年获得GPT-5,后年获得GPT-6。我们选择构建哪种类型的人工智能,以及选择以多快或多慢的速度进行开发,这些都是由我们人类来做出决定的。尽管由于它所能带来的利益以及地缘政治竞争的原因,各国的人工智能竞赛似乎是不可避免的将要到来。
这封公开信呼吁说我们需要对强大的人工智能实行暂停发展,我们可以问问自己:我们应该让机器人的宣传或者不实信息充斥我们的信息渠道吗?我们应该自动化所有的工作,包括那些充实人类生活的工作吗?我们应该开发非人类的智能,但它们最终可能会超过我们,比我们更聪明、更过时和更取代我们吗?我们应该冒着失去对文明的控制的风险吗?
换句话说:我们似乎不必建造会抢走我们工作并可能杀死我们的机器人。
减缓新技术的发展并不是某种注定无望的激进想法。人类以前曾经这样做过,即使是对经济发展有价值的技术也是如此。比如克隆和基因技术。1975年Asilomar会议背后的重组DNA研究人员对一些基因重组实验项目进行暂停。
关于另一个假设——我们不应该减缓AI的发展,因为它能给世界带来很多的的好处。
这里的关键点是,我们必须在潜在的好处和潜在的风险之间取得明智的平衡。在没有至少一定程度的信心能够管理风险的情况下,盲目地开发越来越强大的AI是没有意义的。这些风险不仅仅是关于先进的AI是否有一天会对人类构成威胁的问题,而且还涉及到它们是否会以许多人都会拒绝的方式改变世界。
如何利用六个月的时间暂缓人工智能的发展还不太清楚。美国国会和联邦政府在人工智能方面缺乏深入了解的专业知识,而人工智能的前所未有的发展速度和不断增强的能力使得制定控制其发展的任务变得更加困难。但是正是因为这些不确定性使得暂停的理由就更充分了。
其实OpenAI的首席执行官Sam Altman最近就告诉过ABC新闻,声称实际上他“有点害怕”他的公司目前正在开发的技术可能正在飞快地取代一些
领取专属 10元无门槛券
私享最新 技术干货