首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

OpenAI高管联合撰文:超级智能不可阻挡 应谨慎对待

财联社5月23日讯(编辑 夏军雄)当地时间周一(5月22日),聊天机器人开发公司OpenAI的三位创始人CEO山姆·奥特曼、总裁Greg Brockman和首席科学家Ilya Sutskever在公司博客联合撰文,发表了他们对治理超级智能的看法。

文章指出,在未来10年,人工智能(AI)系统将在大多数领域超越人类专家的技能水平,在开展生产活动方面能够比肩巨头公司。超级智能既有巨大的好处,也有巨大的风险,它可以创造一个更加繁荣的未来,但也存在需要加以管理的风险。

奥特曼等在文章中将超级智能比作核能和合成生物学,由于它们的潜在风险,需要特殊的处理和协调。他们提出了引导超级智能发展的三个关键要点。

首先,领先的AI开发工作需要协调,以确保安全并顺利融入社会。各国政府可以建立相关项目,或者就AI能力增长的限制达成一致。

其次,达到一定水平的AI项目应该受到国际权威的约束,类似于国际原子能机构(IAEA)对核能的监管,该机构负责检查系统,执行安全标准,并对部署和安全性进行限制。

最后,有必要进行针对超级智能的安全性进行研究,而这正是OpenAI和其他公司正在进行的研究领域。

文章强调,监管不能扼杀低于一定门槛的AI模型的发展,公司和开源项目应该有开发这种模型的自由,而不需要繁琐的监管。

三位创始人在文章最后解释了OpenAI开发超级智能的原因,他们相信它会带来一个更美好的世界,能解决问题,改善社会。另一方面,阻止超级智能的发展是危险且困难的,其潜在好处太大了,建造成本每年都在下降,参与者正在迅速增加。因此,谨慎对待超级智能的发展至关重要。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230523A09Z7700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券