首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

牛津大学研究人员警告:人工智能或在本世纪内导致人类的末日

简单来讲,人工智能(AI)就是计算机系统对人类智能的模拟,它们可以通过分析数据和周围环境、解决或预测问题、学习或适应各种任务来模仿人类的思想和行为。

时至今日,人工智能早已渗入了人类生活的方方面面,几乎在每一个领域都或多或少地都存在着它们的“身影”,在人工智能的帮助下,人类摆脱了大量复杂、繁琐且重复的工作,人类的生活也因此而越来越方便快捷。

尽管人工智能对人类的帮助极大,但也有不少人都对人工智能未来的发展表示担忧,比如说在2023年1月25日举办的一次科学技术会议上,牛津大学工程科学研究人员迈克尔·科恩(Michael Cohen)和迈克尔·奥斯本(Michael Osborne)就提出警告称:如果没有得到有效的约束,人工智能或在本世纪内导致人类的末日。

为了方便描述,研究人员举了一个简单的例子:当我们训练一只狗的时候,通常会用食物作为奖励,通过反复的训练,狗就会懂得执行我们想让它做的行为,因为这样就能够让它获取到食物。

但假如这只狗足够聪明,可以自己找到我们贮存食物的地方,它就很可能选择从这里更方便地获得食物,而不再去执行那些我们想让它做的行为。

同样的道理,假如人工智能足够聪明、能力足够强大,那它们也很可能选择绕过人类为其设定的各种规则,直接去用“更方便的策略”达到自己的既定目的,而如果真是这样的话,就会对人类形成巨大的威胁。为什么会这样呢?原因很简单:人工智能是冷酷的,它们不会考虑自己采用的策略会不会对人类造成伤害。

关于这一点,我们不妨来了解一下哲学家尼克·博斯特罗姆(Nick Bostrom)曾经提出过的一个思想实验:

假设有一个人工智能,其既定目的是制作尽可能多的回形针,在此设定下,如果这个人工智能足够聪明,那么它很快就会意识到,若没有人类,它就会好得多,因为人类会影响它制作回形针的效率,还有可能会将它关闭。

在这种情况下,假如这个人工智能的能力足够强,那么它很可能就会利用自己的能力去努力实现一个没有人类的世界,而假如它真的这样做了,并且还成功了,人类的末日也就到了。

虽然这只是一个思想实验,但我们也可以从中清楚地看到不受约束的人工智能对人类的威胁有多大。

需要知道的是,在经历了多年发展之后,现代的一些人工智能已经能够自主学习并根据经验进行改进,其内置的算法可以在没有人为干预的情况下进行学习和适应新数据的概念,这也就意味着,如果这种人工智能可以持续运行,那即使未来没有人类干预,它们自己也会越来越聪明。

另一方面来讲,按照目前的发展趋势,人类在未来对人工智能的依赖会越来越强,它们所能掌控的资源以及自身的能力也会不断提升,所以一个合理的推测就是:在不太遥远的未来,“足够聪明、能力足够强大的人工智能”就可能会出现。

正是因为如此,牛津大学的研究人员才会提出警告,根据他们的估算,这样的人工智能在本世纪内就会出现,研究人员指出,为了更方便、更高效地达到自己的既定目的,它们或许会采用一些对人类造成巨大伤害的策略,最终可能会导致人类的末日。

研究人员指出,这样的事情一旦发生,就几乎不可阻止,因为足够聪明的人工智能早已懂得如何隐藏自己的“真实想法”,它们只会在时机成熟的时候才会向人类“露出獠牙”。研究人员表示:“假如我是这样一个人工智能,那么在付诸行动之前,我会把相关的代码隐藏起来,这样一来,人类就不会拔掉我的电源”。

值得一提的是,有不少知名人士也曾对人工智能表示过担忧,例如霍金就曾经说过:“成功创造出人工智能是人类历史上最重大的事件,但也可能是最后一次”,而埃隆·马斯克更是提出警告称:“从长远来看,人工智能将是我们人类最大的生存威胁”。

总而言之,如何对日益强大的人工智能进行约束,是一个人类应该重视起来的问题,研究人员认为,为了防止人工智能在未来的威胁,人类应该及早建立起完善的保障措施。

(本文部分图片来自网络,如有侵权请与作者联系删除)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230130A060F800?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券