首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

杨立昆谈AGI:还需至少五六年,AI末日论被指夸大?

近期,在“Into the Impossible”播客节目中,meta首席科学家、图灵奖得主杨立昆分享了他对通用人工智能(AGI)的独到见解。他指出,当前社会对AI的负面效应存在过度渲染,而实际上,AI的能力还相当有限。

杨立昆强调,即便在最乐观的预测中,AGI的实现也至少需要五到六年的时间。他批评了社会上一些关于AI可能导致末日的言论,认为这些观点没有基于AI当前的实际发展水平,同时也忽视了AI可能带来的积极影响。

在杨立昆看来,AI在理解和操作物理世界方面仍存在巨大挑战。他指出,当前的AI系统主要依赖于文本数据进行训练,缺乏对物理世界的直观理解。例如,一个十岁的孩子或一只猫都能凭借“直观物理”的能力来规划跳跃轨迹或理解物体的运动,而AI却做不到这一点。

对于AGI的看法,业界内部分歧明显。微软AI的CEO穆斯塔法·苏莱曼表示,当前的硬件水平还无法实现AGI,但未来两到五代硬件的发展可能会使其成为可能。他预计,每代硬件的更新需要大约18到24个月,因此五代硬件可能需要十年时间。苏莱曼认为,业界当前对AGI的关注有些不切实际,他更关注开发对人类有实际帮助的AI系统。

相比之下,OpenAI的CEO阿尔特曼则持更为乐观的态度。他认为,到2025年,我们可能会首次见证具备AGI能力的系统出现。这类系统能够像人类一样完成复杂任务,甚至能够运用多种工具来解决问题。阿尔特曼预测,到2025年,AGI系统可能会让人们惊叹不已。

2024年诺贝尔物理学奖获得者、“AI教父”辛顿对AI的未来表达了更为担忧的看法。他认为,AI有可能发展成为超越人类的高级智能,这将对人类社会产生深远影响。辛顿警告说,AI在未来三十年内导致人类灭亡的概率有10%到20%,并指出AI技术的变化速度比预期快得多。

辛顿在BBC的一档节目中进一步阐述了他的观点,他强调,我们需要认真思考AI超越人类智慧并控制人类社会的风险。他认为,这并非科幻小说的情节,而是切实存在的风险。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O5dY_16R4kiBybzlKRxIzCLw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券