首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ARC-AGI-2:全新AI通用智能测试挑战顶尖模型,人类智慧仍占上风

ARC-AGI-2:人工智能通用智能的新挑战

近日,由著名AI研究者 François Chollet 联合创立的 Arc Prize 基金会推出了一项名为 ARC-AGI-2 的全新测试。该测试旨在量化和评估人工智能(AI)模型所具备的通用智能水平。根据 Arc Prize 基金会的官方博客信息,这项新的基准测试对当前大多数领先的 AI 模型都构成了巨大的挑战。

Arc Prize 排行榜显示,诸如 OpenAI 的 o1-pro 和 DeepSeek 的 R1 等以“推理”能力著称的 AI 模型在 ARC-AGI-2 测试中的得分仅为 1% 到 1.3% 之间。即使是性能更为强大的非推理模型,如 GPT-4.5、Claude3.7Sonnet 和 Gemini2.0Flash,其得分也仅在 1% 左右。ARC-AGI 测试的核心是一系列精心设计的拼图问题,这些问题要求 AI 系统从不同颜色的方块中识别出隐藏的视觉模式,并生成相应的 “答案” 网格。测试的设计初衷在于迫使 AI 能够快速适应并解决前所未见的新问题。

为了建立可靠的人类基准,Arc Prize 基金会邀请了超过 400 名志愿者参与 ARC-AGI-2 测试。结果显示,这些参与者的平均得分高达 60%,这一成绩远远超过任何 AI 模型的表现。Chollet 在社交媒体平台上指出,相较于之前的版本 ARC-AGI-1,ARC-AGI-2 能够更有效地评估 AI 模型的实际智能水平。新测试的主要目标是评估 AI 系统在没有大量预训练数据支持的情况下,是否能够高效地获取新的技能和知识。

ARC-AGI-2 的改进与挑战

与 ARC-AGI-1 相比,ARC-AGI-2 在设计上进行了多项改进,尤其值得一提的是引入了 “效率” 这一关键指标,并要求模型在不依赖记忆的情况下即时解释模式。正如 Arc Prize 基金会的联合创始人 Greg Kamradt 所强调的,智力不仅仅体现在解决问题的能力上,效率同样是一个至关重要的因素。

值得注意的是,OpenAI 的 o3 模型曾在 ARC-AGI-1 中以 75.7% 的高分遥遥领先,直到 2024 年才被其他模型超越。然而,令人惊讶的是,o3 在 ARC-AGI-2 中的得分却仅为 4%,并且在每个任务上的计算成本高达 200 美元。ARC-AGI-2 的发布正值整个技术界对更严格、更全面的 AI 进展衡量标准的呼声日益高涨。Hugging Face 的联合创始人 Thomas Wolf 曾公开表示,AI 行业目前缺乏足够的测试来准确衡量被称为人工通用智能(AGI)的关键特征,包括创造力、适应性和推理能力。

此外,Arc Prize 基金会还宣布将于 2025 年举办 Arc Prize 竞赛,旨在挑战开发者在 ARC-AGI-2 测试中达到 85% 的准确率,同时将每个任务的计算成本控制在 0.42 美元以内。 这无疑是一个极具挑战性的目标,将推动 AI 技术的进一步发展。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OXWeKf5EwxJDCBWcSsSXrCkg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券