深潮 TechFlow 消息,人工智能公司OpenAI的创始人Sam Altman、总裁Greg Brockman和首席科学家Ilya Sutskever在其官网上发布了一篇名为《超级智能的治理》的博文。
文章指出,虽然人工智能系统将在许多领域超越专家技能水平,带来更加繁荣的未来,但我们必须管理风险,并提出了三个方案以应对风险:
1.在开发工作之间进行一定程度的协调,确保超级智能的安全和与社会的整合;
2.成立“人工智能版国际原子能机构”,即专门的国际监管机构;
3.确保超级智能安全的技术能力。
OpenAI高管认为,重要的是允许低于重要能力阈值的模型的开发,无需具有繁琐的监管机制,而阻止超级智能的产生则需要全球监管制度,即使这样也不能保证有效。
领取专属 10元无门槛券
私享最新 技术干货