首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

OpenAI领导层发布“超级智能的治理”,探索AI管理

近期,OpenAI领导层在其官方博客发布了《超级智能的治理》。这篇文章揭示了人工智能(AI)发展的潜力与风险。

OpenAI的领导层预见,未来十年内,AI系统可能超越专家在大多数领域的技能水平,其生产力可媲美今天的大型公司。然而,如同核能和合成生物学等强大技术,AI也有可能带来巨大的风险。因此,我们必须主动管理风险,而不能仅仅是反应式的。

OpenAI提出了三个初始思考点,以帮助我们成功导航这个发展过程。首先,我们需要一定程度的协调,以确保超级智能的开发既能保持安全,又能顺利地与社会集成。其次,我们可能最终需要类似于国际原子能机构(IAEA)的机构来监管超级智能的努力;任何超过一定能力阈值的努力都需要受到国际权威的审查,这可能包括系统的审查,审计要求,安全标准的合规测试,对部署程度和安全级别的限制等。最后,我们需要技术能力来使超级智能安全。这是一个开放的研究问题,我们和其他人正在付出大量的努力。

OpenAI还强调,不应将此类监管应用于低于显著能力阈值的模型开发,包括公司和开源项目。对于这些系统,虽然存在风险,但其风险程度与其他互联网技术相当,社会可能的应对方式也适合。

OpenAI认为,对于最强大的系统的治理,以及关于其部署的决定,必须有强有力的公众监督。我们相信,世界各地的人民应通过民主方式决定AI系统的界限和默认设置。我们还计划试验这种机制的开发。在这些广泛的界限内,我们认为,个人用户应对他们使用的AI的行为有很大的控制权。

最后,OpenAI提出了两个基本理由。首先,我们相信,AI将会带来比我们今天所能想象的更美好的世界。其次,我们相信,停止创建超级智能将是风险巨大且困难的。因为收益极大,建设成本每年都在降低,构建它的参与者数量正在快速增加,而且它是我们正在走的技术路径的固有部分,停止它可能需要全球监视制度,甚至那也不能保证有效。所以我们必须把它做对。

总的来说,OpenAI的领导层呼吁全球共同努力,以确保人工智能的发展既能带来巨大的利益,又能有效地管理风险。这需要我们共同建立强大的治理机制,同时保持对AI技术的深入研究,以实现其最大的潜力,同时避免可能带来的威胁。这是一个充满挑战的任务,但也充满了可能性和希望。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230523A09Q9F00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券