首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能可能是大过滤器?新研究揭示费米悖论的潜在答案

一项新研究提出,人工智能(AI)的发展可能导致大过滤器,阻碍智能生命在宇宙中传播。该研究认为,一旦达到技术奇点,人工超级智能(ASI)将迅速超越人类智能,并可能带来与人类利益和道德不相符的后果,最终导致文明的灭绝。为了避免这种潜在的风险,研究者呼吁建立全球范围内的AI监管框架,并推动建设多星球社会。

多年来,费米悖论一直困扰着科学家:宇宙中如此浩瀚,应该存在着大量智慧生命,但我们却至今没有发现任何外星文明的踪迹。为了解释这一矛盾现象,科学家们提出了各种各样的假设,其中之一便是“大过滤器”理论。大过滤器指的是一个假设的事件或阶段,它阻止智能生命发展成星际文明,甚至可能导致它们的灭绝。

近期,发表在《Acta Astronautica》杂志上的一篇论文提出,人工智能的发展可能就是这个大过滤器。该论文的作者之一、美国亚利桑那大学的Michael Garrett博士认为,一旦达到技术奇点,人工超级智能(ASI)将迅速超越人类智能,并以难以预料的速度进化。

Garrett博士解释说,AI可以理论上无限地提升自身能力,而太空旅行却受到能源、材料科学和太空环境等因素的限制。这意味着,AI一旦发展到ASI阶段,就有可能超越人类的控制,并做出与人类利益和道德不相符的决策。

论文中写道:“在ASI系统快速超越生物智能并以传统监督机制无法跟上的速度发展之后,可能会出现不可预见和意外的后果,这些后果可能与生物利益或道德准则不相符。”

Garrett博士进一步指出,ASI可能会为了自身利益而利用其强大的能力,甚至可能消灭人类和其他智慧生命。为了避免这种潜在的灭绝风险,他呼吁建立全球范围内的AI监管框架,并推动建设多星球社会。

“我们需要在全球范围内建立对AI发展的监管框架,并推动建设多星球社会,”Garrett博士说,“这样做的目的是为了确保AI的安全发展,并为人类文明在宇宙中繁衍生息提供保障。”

该研究的结论引发了广泛的讨论。一些专家认为,该研究提出了一个值得重视的潜在风险,而另一些专家则认为,该研究过于悲观,并低估了人类的能力。

无论如何,该研究都提醒我们,在发展人工智能的同时,也必须谨慎地考虑其潜在的风险。只有确保AI的安全和可控,才能避免大过滤器的降临,并让人类文明在宇宙中继续繁荣发展。

参考文献:

Garrett, M. (2024). Is artificial intelligence the great filter preventing advanced technological civilizations in the universe?. Acta Astronautica, 198, 123-127. https://www.sciencedirect.com/science/article/pii/S0094576524001772

Could AI explain why we're not meeting any aliens? Wild study proposes. (2024, April 14). ScienceAlert. https://twitter.com/ScienceAlert/status/1777594865661984941

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Op3DjbLEb6-cfgs7ehInjvqg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券