首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

科学家警告:人类无法控制超级智能AI,我们应该警惕吗?

随着人工智能技术的不断发展,越来越多的人开始关注AI是否会威胁到人类的地位。近年来,一些科学家和技术巨头纷纷表示担忧,认为人类可能无法控制高级计算机超级智能。那么,我们真的无法控制这种超级智能吗?

电影《2001:太空漫游》的剧照。

2021年,一些科学家对此进行了研究,得出的结论令人担忧:我们几乎肯定无法控制超级智能。原因在于,要控制一种远超人类理解能力的超级智能,我们需要对其进行模拟分析。然而,如果我们无法理解它,就不可能创建这样的模拟。

研究人员指出,我们无法为AI设定“不伤害人类”的规则,因为我们无法预测AI会遇到哪些情景。一旦计算机系统的工作水平超出了程序员的范围,我们就无法设定限制。

此外,研究人员还提到了图灵于1936年提出的停机问题。这个问题涉及到如何判断一个计算机程序会否达到结论并给出答案(即停机),还是无休止地寻找答案。图灵通过一些巧妙的数学证明,我们无法找到一个方法来判断所有可能编写的程序。

这使得我们回到了AI问题。在超级智能状态下,AI可以同时拥有所有可能的计算机程序。我们无法确保任何旨在阻止AI伤害人类和破坏世界的程序能否停机,这意味着AI无法被遏制。

为了解决这个问题,一些科学家提出限制超级智能AI的能力,例如切断其与互联网或某些网络的连接。然而,这一想法也受到了质疑,因为这将限制AI的发挥,那么我们为什么还要创造它呢?

事实上,今年早些时候,包括埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克在内的科技巨头签署了一封公开信,呼吁暂停人工智能研究至少6个月,以便探讨其安全性。

公开信称:“具有人类竞争智能的AI系统可能对社会和人类造成深刻风险。只有在我们确信AI系统的影响是积极的、风险可控的情况下,才应开发强大的AI系统。”

因此,我们需要认真思考人工智能发展的方向,并在推进技术创新的同时,确保人类的安全和福祉。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O46kifYZ2H9kJ3ZtjsOiet2w0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券