首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

苹果论文揭示LLM局限性,质疑其通往AGI的可行性

日前,苹果研究团队发布了一项新研究,对当前大语言模型(LLMs)的能力提出了质疑。研究指出,尽管LLMs引入了复杂的自我反思机制,但仍存在根本性限制,无法在超过一定复杂度阈值的问题中表现出可泛化的推理能力。研究发现,LLMs在不同复杂度问题中的表现存在明显分界:在低复杂度问题中标准LLMs表现优于逻辑推理模型(LRMs),在中等复杂度问题中LRMs占优,而在高复杂度问题中两者均表现失败。此外,LLMs在执行精确计算方面也有局限性,甚至在简单问题上也会出现“过度思考”的低效行为。纽约大学教授Gary Marcus认为,LLMs无法替代精心设计的传统算法,且通往通用人工智能(AGI)的道路并不现实。苹果的这项研究进一步证实了LLMs在结构性问题上的不可靠性,例如在解决汉诺塔问题时表现不佳,即使直接给出标准算法,模型也无法正确执行。这表明,尽管LLMs在某些领域有其用途,但它们并非通往真正智能的万能钥匙。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O3bAmuhCQuQcF8di2wH58G1A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券