前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >两年后,深度学习仍然面临着同样的基本挑战

两年后,深度学习仍然面临着同样的基本挑战

作者头像
深度学习与Python
发布2024-03-18 19:35:50
1200
发布2024-03-18 19:35:50
举报

作者 | Gary Marcus

译者 | Sambodhi

策划 | Tina

导读:深度学习领域正步入一个激动人心的转折点,众多早期的预测与期待即将面临现实的检验。人工智能是否能在此刻实现真正的飞跃,成为各界关注的焦点。本文将深入剖析深度学习所遭遇的种种挑战,并展望其未来的发展趋势。通过回顾作者两年前的前瞻性文章,我们可以发现其中的许多观点至今仍然掷地有声。然而,随着技术的日新月异与思想的不断演进,我们亦需审视当前的形势,寻找突破困境的新路径。人工智能的发展不仅依赖于计算机科学的进步,更需要伦理学、社会学等多领域知识的融合与支持,同时离不开全球范围内的深入合作。本文将引领读者共同探讨这些问题,探寻人工智能未来的发展方向,以期在这个关键时刻为行业提供有价值的洞见与启示。

两年前,我发表了一篇颇具争议的文章,标题为《深度学习正遭遇瓶颈》(Deep Learning is Hitting a Wall)。

这篇文章虽未引起广泛关注,但却在特定群体中引发了激烈的讨论。当时,我的观点引起了众多异议,一些人甚至在 Twitter 上对我展开了尖锐的嘲讽。比如,Sam Altman 就在 Dall-E 诞生后不久,对我的观点进行了戏谑式的嘲讽。然而,随着时间的推移,我们有必要重新审视这篇文章的观点,看看它是否经受住了时间的考验。

从技术进步的角度来看,无疑取得了显著的成就。GPT-4、Sora、Claude-3 等模型的出现,以及消费者对人工智能技术的快速接受,都证明了深度学习领域的蓬勃发展。然而,这些成就并非文章所关注的重点。我的文章主要探讨了通用智能所面临的障碍,以及为何仅仅通过扩大模型规模无法解决根本问题。

现在,让我们按照文章的结构,逐一审视我当时的观点。

  • 在 2016 年,Hinton 曾预测深度学习将取代放射科医生。我写道 “快进到 2022 年,我们观察到的事实是,没有任何一个放射科医生被深度学习技术所取代。”这一观点至今仍然成立。
  • “目前至少是这样,人类和机器互补彼此的优势。”这一观点至今仍然成立。
  • “很少有领域像人工智能一样充斥着炒作和虚张声势。十年来,这一行业一直在不同的时间点内跃跃欲试,不断给出令人振奋的承诺,但真正实现突破的案例却并不多见。” 这一观点至今仍然成立
  • 在 2020 年 11 月,Hinton 曾向《麻省理工科技评论》(MIT Technology Review)表示 ,深度学习将能够做任何事情。对于这一观点,我持怀疑态度。到目前为止,我的怀疑态度仍然如此,可以说这一观点仍然存在争议
  • “我们距离真正能够理解人类语言的机器,确实还有相当漫长的道路需要探索。” 这一观点至今仍然成立,尽管有人认为存在一些表面上的理解。
  • “我们目前所拥有的人工智能技术,与科幻作品中描绘的如 Rosey 机器人那样的日常智能水平相比,仍然相去甚远。Rosey 作为一个科幻管家,不仅能够解读并解释多种多样的人类请求,更能实时、安全地执行这些请求。” 这一观点至今仍然成立
  • 至于 Elon Musk 关于新型人形机器人 “Optimus” 的设想,虽然其愿景宏大,但我对此同样持怀疑态度。要实现大规模商业化,并在短期内超越汽车工业这样的成熟产业,显然是不现实的。现在还为时过早,但可以确定的是,短期内这一领域不太可能成为任何人的大生意。
  • “谷歌推出的最新语言模型 Lambda,确实如之前所述,其稳定性受到质疑。其作者也坦诚承认,该模型在某些情况下容易产生无意义的‘废话’。”这一观点至今仍然成立。
  • “对于深度学习在构建可信赖人工智能中的角色,我认为它仅仅是我们所需技术的一小部分。”这一猜测仍然未定,但请注意,像 RAG 这样的技术导入了我所倡导的符号技术。我们离可信赖的人工智能还有很长的路要走。
  • “深度学习本质上是一种识别模式的技术,它在某些场景下表现出色,尤其是当我们只需要粗略结果、风险较低且完美结果不是必需的时候。” 这一观点至今仍然成立
  • “目前的深度学习系统经常犯下一些看似愚蠢的错误。” 这一观点至今仍然成立
  • “关于 GPT-3 等语言模型在特定应用中的潜在风险,特别是作为自动自杀辅导聊天机器人的担忧,确实有其合理性。这类系统如果未能精心构建防护措施,很容易产生问题性的对话,甚至可能误导用户。”考虑到已经发生过与聊天机器人相关的死亡事件,这种担忧并非空穴来风。
  • “GPT-3 等模型确实存在产生有害语言和传播错误信息的风险。” 这一观点至今仍然成立,尽管在一些方面有所进展。(即使在某些情况下,通过技术手段限制了其产生有害语言的倾向,但在普通使用中,错误信息仍然很普遍。)
  • “OpenAI 的新努力在解决这些问题上可能仍然会制造 ‘权威的胡言乱语’” 这一观点仍然成立
  • “2020 年,OpenAI 的 Jared Kaplan 及其合作者提出了一组关于语言神经网络模型的‘规模定律’(scaling law):他们发现,他们向神经网络输入的数据越多,这些网络的性能就越好。这暗示着,如果我们收集更多数据并将深度学习应用于越来越大的规模,我们就能够做出更好的人工智能。” 规模无疑已经有所帮助,但并没有解决我上面指出的任何问题
  • “对于规模论点中的漏洞,确实存在对真正理解的迫切需求。目前所扩展的措施,如预测句子中的单词,虽然在一定程度上反映了模型的性能,但并不能等同于真正的人工智能所需的深度理解。”这一观点至今仍然成立,并且越来越被认可
  • “规模定律并不是像万有引力那样的普适‘定律’,它更像是一个基于观察得出的趋势。与摩尔定律类似,它可能在一定时期内有效,但并不能保证永远成立。” 这一观点至今仍然成立,而且最近 Sam Altman 的公开言论也表明了这一点,他承认在真正了解 GPT-5 等更大规模模型的能力之前,我们还有很多未知需要探索。
  • Sam Altman 在一篇充满胜利感的博客文章中宣扬 “万物的摩尔定律”,声称我们只需几年的时间就能实现 “能够思考的计算机”,可以阅读法律文件并提供医疗建议。然而过去两年来,我们还没有看到可靠的版本能够完全实现这些功能,因此 这一观点仍然有待观察
  • “如果规模不能让我们实现安全的自动驾驶,那么数百亿美元的投资可能会白费。” 事实证明,尽管数百亿美元已经投入到了这个领域,但商业化推出仍然面临诸多难题,测试也仍然受到限制。多家公司在这个领域遭遇失败或选择放弃。因此,这一观点同样有待观察
  • “神经符号学可能是一个有希望的替代方案。” 这一观点有待观察,而且,DeepMind 刚刚在《自然》(Nature)杂志上发表了一篇关于神经符号系统 AlphaGeometry 的精彩论文。
  • 规模可能无法解决人工智能面临的所有问题,这一隐含的意思在当前的讨论中逐渐凸显出来。像 Bill Gates、Demis Hassabis、Yan LeCun 和 Sam Altman 都意识到,可能即将出现一个平台。这一观点有待观察。上个月,Hassabis 就回应了我在 2022 年文章中的中心观点:

这并不意味着我们无法在未来见证新的技术革新,无论它们以何种形式呈现。同样,断言 AGI(通用人工智能)的不可能性也过于绝对。

然而,我坚信我们仍然需要一场范式转变。随着技术的深入发展,我们越来越认识到,仅仅依赖大型语言模型(LLM)可能并非通往 AGI 的终极答案 —— 这一观点正是我之前所坚持的。

综上所述,我认为这篇文章的观点犀利且切中要害。时光荏苒,两年间虽然技术进步日新月异,但我的核心观点仍然坚定。我可能会更新一些实例,并对标题进行微调,以更清晰地传达我的意图:即在某些领域取得的进步,并不等同于在所有方向上都有突破。我仍会毫不犹豫地表达我的担忧。

最后,我想重申文章末尾的观点,这依然是无可辩驳的事实。伦理和计算方面的挑战层出不穷,我们需要汲取语言学、心理学、人类学和神经科学等多领域的智慧,而不仅仅是局限于数学和计算机科学。要培育出真正的人工智能,需要集结全社会的力量与智慧。我们必须铭记,人脑作为已知宇宙中最复杂的系统之一,若我们要构建与其相媲美的智能体系,开放与合作的精神将是我们取得成功的关键。

作者简介:

Gary Marcus,科学家,《Rebooting.AI》(《福布斯》AI 七本必读书籍之一)、《Kluge》和《Guitar Zero》作者;Geometric Intelligence 创始人兼首席执行官(已被 Uber 收购)。

原文链接

https://garymarcus.substack.com/p/two-years-later-deep-learning-is

声明:本文为 InfoQ 翻译整理,未经许可禁止转载。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2024-03-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 InfoQ 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档