首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

苹果新研究:AI推理遇瓶颈,微调数学题就“翻车”?

【ITBEAR】苹果公司研究团队近期发表了一篇深入探讨大型语言模型(LLM)在数学推理方面局限性的论文。该论文指出,尽管LLM在生成类似人类的文本方面表现出色,但在处理简单数学问题时,若对问题稍作修改,如增添无关信息,其表现便会显著下降。

论文中举了一个例子,当询问“奥利弗三天内共摘了多少个奇异果”时,LLM能够正确计算。然而,一旦加入如“其中5个奇异果比平均小”这样的无关细节,LLM便会给出错误答案。研究人员对数百个类似问题进行了修改,并发现几乎所有这些修改都导致LLM的回答成功率大幅降低。

研究团队认为,这一现象显示出LLM并未真正理解数学问题,而是依赖于训练数据中的模式进行预测。当需要进行真正的逻辑推理时,模型往往无法得出合理结果。这一发现为人工智能的发展提供了重要的参考依据。尽管LLM在多个领域都表现出色,但其推理能力仍需进一步提升。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/ODeCezyf30qMsBBi0zP0BaYA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券