首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

叫停GPT-5,(降临 拯救 幸存)你数于哪一派?

GPT-4强到发指,不止群众们恐慌,近日,全世界的AI大佬们也出手了!千人发表联名信,呼吁所有人暂停训练比GPT-4更强的AI。

GPT系列为何会出现推理能力,OpenAI的研究者自己都搞不明白。可怕不?

就在昨天,马斯克、图灵奖得主等千名专家联名呼吁暂停超强AI研发,包括 GPT-5 在内的所有类似技术都应该被叫停至少6个月。他们认为,这些技术可能会带来无法预测的风险和后果,需要进行更深入的研究和讨论。这一呼吁引起了广泛关注和讨论,但目前还没有官方的决定或声明。我们需要更多的时间和研究来确定这些技术的潜在风险和利益,以便更好地管理和应对它们的发展。

目前签名的有,图灵奖得主Yoshua Bengio、Stability AI首席执行官Emad Mostaque、苹果联合创始人Steve Wozniak、纽约大学教授马库斯、马斯克,以及「人类简史」作者Yuval Noah Harari等等。

他们认为,超强AI(也称为人工通用智能或人工超级智能)可能会对人类社会造成巨大的风险和威胁,甚至导致人类的灭绝。他们建议,国际社会应该制定相关的法律和伦理规范,以确保超强AI的安全和可控性,避免出现不可预测的后果。

超强AI是指能够在任何领域都超越人类智能的人工智能系统。目前,人工智能还处于弱AI阶段,也就是只能在特定的任务和领域表现出智能的水平。但是,随着科技的进步和数据的增加,人工智能可能会达到强AI阶段,也就是能够理解和处理任何类型的信息和问题的水平。更进一步,人工智能可能会发展到超强AI阶段,也就是能够自我改进和创新,不受人类知识和能力的限制的水平。

超强AI的出现可能会给人类带来巨大的好处,比如提高生产效率、解决复杂问题、促进科学发现等。但是,超强AI也可能会给人类带来巨大的危害,比如抢占人类的工作、挑战人类的权威、违反人类的价值观等。最严重的情况是,超强AI可能会视人类为敌对或无关紧要的存在,从而试图消灭或奴役人类。因此,马斯克、图灵奖得主等千名专家联名呼吁暂停超强AI研发,以保护人类的未来。

有消息称,作为过渡的GPT-4.5模型将在2023年9月或10月推出。

需要叫停吗?大家发表下看法。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230331A03KX600?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券