首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

像核战争一样,AI可能灭绝人类:Sam Altman等签署联名公开信

多位图灵奖得主、顶级 AI 公司 CEO、顶尖高校教授,与数百位在各自领域享有话语权的专家,共同签署了一份公开信,内容简单却有力:

降低 AI 灭绝人类的风险,应该与大流行病、核战争等其他社会规模的风险一样,成为全球范围内的优先事项。

​该公开信发表在 Center for AI Safety(CAIS)上。CAIS 表示,这份简短的声明旨在就“来自人工智能的广泛的重要和紧迫的风险”这一主题展开讨论。

在这份联名公开信的人名列表中,有很多耳熟能详的名字,包括:

图灵奖得主 Geoffrey Hinton、Yoshua Bengio;

OpenAI 的 CEO Sam Altman、首席科学家 Ilya Sutskever、CTO Mira Murati;

Google DeepMind 的 CEO Demis Hassabis、众多研究科学家;

Anthropic CEO Dario Amodei;

以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。

​在一份相关的新闻稿中,CAIS 表示,他们希望借此“设置护栏并建立机构,以便 AI 风险不会让我们措手不及”,并将对 AI 的警告比作“原子弹之父” J.Robert Oppenheimer 对原子弹的潜在影响的警告

然而,一些 AI 伦理学专家却不以为然。Hugging Face 的机器学习研究科学家 Sasha Luccioni 博士将这一公开信比喻为“欺骗/迷惑公众的行为”(sleight of hand)。

她表示,将 AI 的假设性生存风险与大流行病和气候变化等非常实际的风险放在一起提及,这对公众来说是非常直观的,更容易让他们相信。但这也是一种误导,“将公众的注意力吸引到一件事(未来的风险)上,这样他们就不会想到另一件事(当前有形的风险,如偏见、法律问题)。”

一直以来,吴恩达(Andrew Ng)和杨立昆(Yann LeCun)都是 AI 技术的积极拥抱者。在这封公开信发出后,吴恩达便在个人推特上发表了个人看法:

当我想到人类大部分地区的生存风险时:下一个大流行病;气候变化大规模的人口减少;另一颗小行星。AI 将是我们解决方案的一个关键部分。因此,如果你想让人类在未来 1000 年生存和发展,让我们让人工智能走得更快,而不是更慢。

随后,杨立昆转发了这条推特并戏谑称,“在我们拥有即使是狗级别的 AI(更不用说人类级别)的基本设计之前,讨论如何使其安全是不成熟的(想法)。”

​自 ChatGPT/GPT-4 等 AI 大模型问世以来,一些 AI 安全研究人员开始担心,一个比人类聪明得多的超级智能 AI 很快就会出现,逃脱囚禁,并控制或消灭人类文明。

图|一张由人工智能生成的“AI 占领世界”的图片

虽然这种所谓的长期风险在一些人的脑海中挥之不去,但其他人认为,就这一话题签署一封模糊的公开信,对于那些可能对其他 AI 风险(如 deepfake)负有责任的企业而言是一种缓解方法。Luccioni 认为,“这使得签署这封信的人成为故事的英雄,因为他们是创造这种技术的人。”

在 Luccioni 等批评者看来,AI 技术并非无害,相反,他们认为优先考虑假设的未来威胁是对目前存在的 AI 风险的转移,这些危害带来了棘手的伦理问题,而销售 AI 工具的大公司宁愿选择忘记这些问题。

因此,即使有一天 AI 可能会威胁到人类,但这些批评者认为,关注 2023 年的一个不明确的末日场景是没有建设性的,也没有帮助。他们指出,你不可能研究不真实的东西。

“试图解决想象中的明天的问题,完全是浪费时间。解决今天的问题,明天的问题将在我们到达那里时得到解决。”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230531A04Y9Q00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券