首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能专家对马斯克联名公开信的回应:散布恐慌和炒作 AI

站长之家(ChinaZ.com) 4月3日消息:日前埃隆·马斯克 (Elon Musk) 联名签署的一封公开信中引用了四位人工智能专家的研究成果,公开信要求紧急暂停研究,他们对此表示担忧。

这封日期为 3 月 22 日的信,截至周五已有 1800 多个签名,信中呼吁在开发比微软支持的 OpenAI 的新 GPT-4「更强大」的系统方面采取六个月的停顿措施,该系统可以进行类似人类的对话,编写歌曲和总结冗长的文件。自从 GPT-4 的前身 ChatGPT 在去年发布以来,竞争对手的公司纷纷推出类似产品。

这封公开信称,具有「人类竞争智能」的人工智能系统对人类构成了深远的风险,并引用了专家的 12 项研究,包括大学学者以及 OpenAI、谷歌及其子公司 DeepMind 的现任和前任员工。此后,美国和欧盟的民间社会团体向立法者施压,要求他们控制 OpenAI 的研究。OpenAI 没有立即回应置评请求。批评者指责这封信背后的组织「生命的未来研究所(FLI)主要由马斯克基金会资助,它优先考虑想象中的世界末日场景,而不是对人工智能更直接的关注,如种族主义或性别歧视的偏见。公开信中引用的研究包括 Margaret Mitchell 合著的著名论文《论随机鹦鹉的危险》。她本人曾在谷歌负责人工智能伦理研究,现在是人工智能公司 Hugging Face 的首席伦理科学家。

Mitchell 告诉路透社,目前尚不清楚什么才算是「比 GPT4 更强大」。她说:「通过将许多有问题的想法视为既定事实,这封信宣称了一套优先事项和关于人工智能的叙述,对 FLI 的支持者有利。现在我们中的一些人没有特权去忽视主动的危害。」Mitchell 和她的合著者——Timnit Gebru、Emily M. Bender 和 Angelina McMillan-Major——随后发表了对这封信的回应,指责其作者「散布恐慌和炒作人工智能」。

他们写道:「通过幻想的 AI 支持的乌托邦或世界末日来分散我们的注意力是危险的,它承诺了一个『繁荣』或『潜在的灾难性』的未来。责任不在于人工智能,而在于它们的建造者。」

FLI 总裁 Max Tegmark 告诉路透社,该活动并不是为了阻碍 OpenAI 的企业优势。「这很有趣。我见过人们说,『Elon Musk 正试图减缓竞争,』」他说,并补充说 Musk 没有参与起草这封信。「这与其它公司无关。」

总部位于加州的人工智能安全中心主任 Dan Hendrycks 在信中也被提及,但他支持信中的内容,他告诉路透社,考虑黑天鹅事件是明智的——那些看起来不太可能发生,但会产生毁灭性后果的事件。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230404A003SF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券