首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

将AI比喻为核设施,OpenAI呼吁全球严管AI开发

5月24日消息,OpenAI三位高层在近日联名发文声称AI需要受到严格监管,像管控核设施一样管AI发展。

(OpenAI官网已上传此篇文章)

OpenAI三位高层认为,超级智能AI是一把双刃剑,未来十年内AI的产出便会赶上许多大公司,必须要受到监管,认为世界需要快速建立起一个国际人工智能监管机构。

他们还称,人工智能的创新速度如此之快,我们不能指望现有的权威机构能够充分控制这项技术。

目前,这篇文章在推特上引起了大量关注,连马斯克本人也都在下方评论称“Control matters”(控制很重要)。不过,也有许多人认为OpenAI此举是自私的,因为这阻碍了人们对人工智能未来关于开放以及应用的设想。

其实早在之前,OpenAI三位高层中的Altman参加美国国会听证会时就针对AI提出了不少关于AI安全的提议,包括成立一个新的机构,负责为 AI 大模型颁发许可,并拥有撤销许可的权力;为 AI 模型创建一套安全标准,对危险性做评估,包括它们是否能够“自我复制”、“逃出实验室自己行动”;要求独立专家对模型的各种指标做独立审计。而这次他们则通过公司身份向公众再次呼吁关注这一问题。

编辑点评:相信各位应该都听过或者看过《终结者》这一系列的电影。“天网”AI在电影中造成了对全球的重大破坏,但我们不能够因为那只是虚构的电影而就轻视AI。未来已来,现在ChatGPT、Midjourney等AI模型展现出如此强大的能力,或许是时候开始重视这一技术未来的发展方向。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230525A037SL00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券