首页
学习
活动
专区
工具
TVP
发布

奥特曼、吴恩达、杨立昆:暂停研发先进AI大模型,是个馊主意 I 预研

一家名为未来生活研究所的组织,突然发布了一封公开信,要求对AI大模型研究进行卡脖子——暂停研究比GPT-4更先进的大模型6个月,如果OpenAI们不服的话 ,政府可以强令暂停。

他们指责在ChatGPT发布之后,科技巨头激进加速AI技术竞争,陷入了一场“失控的竞赛”。

签名为首者,包括马斯克、人工智能科学家本吉奥、苹果联合创始人沃兹尼亚克、以及心理学家马库斯等。

他们要求先暂停研究先进的大模型半年,这听起来像是一段冷静期,先把人工智能安全这一课补上再说。因为微软CEO纳德拉的快速推进战略,所有AI公司和科技巨头都感受到“疯狂的商业压力”,需要一段时间来喘息。

这听起来又像是一段整顿期。信中说暂停期应该公开宣布并且可以验证,该领域的所有主要参与者都应该暂停。“如果不能马上暂停,政府应该介入并实施暂停。” 签名者认为,AI 实验室和专家可以利用这段时间为先进AI系统设计制定一套共享的安全规则,这些规则应由外部专家进行审核和监督。

马斯克是这家未来生活研究所的顾问团成员。他在自己的推特上讲了个段子:

“有个老掉牙的段子,说的是有一群不可知论者的科技专家在开发超级人工智能,想发现是不是真的有上帝。他们大功告成,发出问题。

AI回答说:‘现在不是有了,傻X们。’”

这是一个酸溜溜的段子。马斯克当年是OpenAI的共同创办者,承诺捐赠10亿美元,但在试图掌控未果、捐赠了1亿美元之后,退出了OpenAI。历经8年,OpenAI在先后获得100亿美元投资之后修炼已成。而马斯克后来花出400多亿美元收购推特,目前已经缩水一半。马斯克眼看着ChatGPT抢走了自己的风头,他在自己的推特上不停地攻击ChatGPT越来越危险,还是一个woke(自由派)人工智能。

但马斯克自己搞人工智能也并不安全。他惯于吹牛特斯拉将很快实现自动驾驶,但就在上个月,特斯拉宣布召回约 362,800 辆配备所谓完全自动驾驶的乘用车。他所说的人工智能发展过快的风险,其实就像技术不成熟的车辆在高速公路上自动驾驶狂奔。

马斯克的脑机接口公司Neuralink也在追求速度,结果问题密集爆发,FDA列数了其在人体试验前必须解决的数十个缺陷和诸多安全问题, 一再拒绝其将脑机接口芯片植入人脑的人体试验申请。

一天的媒体炒作之后,OpenAI联合创始人奥特曼开始回应了。

“身处风暴中心,我很淡定。”

奥特曼的回应:“在这一问题上,我们一直是倡导声音最大、采取最多实际行动、也是努力时间最久的。”

这封公开信的内容一点也不新鲜,几乎完全在重复OpenAI的主张。就在OpenAI发布GPT-4之前,奥特曼已经提出了一个关于通用人工智能(AGI)安全的计划,其中已经包括了发布大模型之前独立的审核、未来训练更先进的大模型之前的独立评审、领先的AI机构之间就训练大模型的最快计算速度达成协议,等等。该计划还强调了建立公开标准,以确定暂停大模型训练的条件、安全发布的条件。而各国政府对于一定规模以上的大模型的看法,也非常重要。

奥特曼将于五、六月份巡回全球,会见用户及开发者,访问城市包括多伦多、华盛顿 、里约热内卢、拉各斯、马德里、布鲁塞尔、慕尼黑、伦敦、巴黎、特拉维夫、迪拜、新德里、新加坡、雅加达、首尔、东京、墨尔本。在其中几个国家,会在当地发表演讲并会见决策者。

人工智能科学家杨立昆,在技术路线上尖锐批评自回归式语言大模型,但并没有在公开信上签名,因为这封信并不符合他的逻辑。

他在推特上写了这么一段话:

“这一年是 1440 年,天主教会呼吁暂停使用印刷机和活字印刷机 6 个月。

想象一下,如果平民能接触到书籍会发生什么!他们可以自己阅读圣经,社会就会被摧毁。”

社会因为变得更好……而“被摧毁”了。印刷书籍促成了新教运动,以及欧洲长达 200 年的宗教冲突。但印刷书籍也促成了启蒙运动:识字、教育、科学、哲学、世俗主义和民主。

奥斯曼帝国直到 18 世纪才禁止印刷书籍,祸害它从中世纪的科学和数学的巅峰昌盛衰落到文艺复兴之后的愚昧落后。”

人工智能科学家及创业者吴恩达也表示反对暂停:

1,让 AI 超越 GPT-4 研究暂停6个月,这是一个馊主意。我在教育、医疗保健、食品等领域看到了许多新应用,改进 GPT-4 会帮助很多人。让我们在人工智能创造的巨大价值与现实风险之间取得平衡。

2,暂停并阻止所有团队推进LLM研究,实施起来并不可行,除非政府介入。让政府暂停其并不了解的新兴技术是反竞争的,树立了一个糟糕的先例,并且是糟糕的创新政策。

3,负责任的人工智能很重要,人工智能也有风险。媒体在炒作人工智能公司正在疯狂发布不安全的代码,这是不正确的。绝大多数(遗憾的是,不是全部)AI 团队都非常重视负责任的 AI 和安全。

4,6 个月的暂停不可行。为了提高人工智能的安全性,着重透明度和审计的规则将更加可行,并产生更大的影响。在我们推进技术的同时,让我们也更多地投资于安全,而不是扼杀进步。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230330A0ABRW00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券