AI大模型,似乎发展出了类似人类理解物体概念的能力。
近日,中国科学院自动化研究所神经计算与脑机交互(NeuBCI)课题组与中国科学院脑科学与智能技术卓越创新中心的联合团队的研究,首次证实了多模态大语言模型(MLLMs)能自发形成与人类高度相似的物体概念表征系统。
这项重要研究发表在国际权威期刊《自然·机器智能》。
不同于以往的仅关注AI识别准确率(例如区分猫和狗),这项研究旨在探索AI模型是否形成了类似人类对物体含义的深层理解(概念表征)
研究团队基于经典认知心理学的测试方法(三选一异类识别任务),让AI模型和人类参与者,从1854种日常概念任意组成的三个组合中(例如:狗、狼、猫),选出最不相似的一个。
团队通过分析470万次这样的行为数据,构建了AI的“概念地图”。
研究发现,多模态模型(MLLM)和纯文本模型(LLM)能自发形成物体概念表征结构,并且预测人类选择的准确度非常高。
从模型行为数据中识别出66个高度可解释的重要“心智”维度(如语义类别、感知特征、物理成分)。
其中,多模态模型(MLLM)的内部表征与人脑特定区域的神经活动模式存在明显的对应关系。
这项研究表明,AI语言模型,它们理解世界上的东西的方式,与我们人类大脑非常相似。
而且,拥有了图文理解能力的多模态AI模型,看图时运作方式与人脑处理视觉信息的方式更接近。
这些研究将为未来理解AI的“认知”机制和创造更富理解力的AI提供了重要帮助。
领取专属 10元无门槛券
私享最新 技术干货