首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

杨立昆发文质疑 LLM 推理能力,大模型涌现离不开上下文学习

据站长之家 11 月 24 日报道,近期,Meta 首席人工智能科学家杨立昆(YannLeCun)在推特上引发了关于大语言模型(LLM)推理能力的讨论,强调 LLM 缺乏真正的规划推理能力,其涌现能力实际上是上下文学习的结果。研究表明,针对复杂规划任务,如国际规划大赛中的问题,LLM 的性能较差,其推理能力在特定领域受限,而涌现能力主要体现在简单任务和事先知道答案的情境中。

文章还提到,对于 LLM 的规划任务研究存在一些问题,包括领域知识和实际执行计划的混淆。研究团队通过混淆规划问题中的动作和对象的名称来降低近似检索的有效性,挑战 LLM 的经验表现。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OGa80N5ffmrt4K0CN5eFy1rA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券