当地时间5月14日,OpenAI宣布向所有用户开放基于o4-mini模型的轻量版Deep Research AI搜索功能。该功能在保留核心研究能力的同时,通过模型轻量化实现服务扩容,标志着这家人工智能领军企业首次对高阶功能进行分层运营。
模型优化与功能延续
轻量版Deep Research沿用标准版的核心架构,但改用参数规模更小的o4-mini模型。OpenAI披露,该模型通过算法优化实现了80%的推理效率提升,在保持平均45.6分搜索准确率(满分100)的同时,单次响应时长缩短至标准版的60%。尽管文本生成长度缩减约30%,但核心数据提取与分析能力仍与标准版(准确率51.5)保持显著差距——其表现甚至优于早期o3模型与浏览器插件组合(49.7分)。
梯度化额度管理体系
为平衡服务负载与商业回报,OpenAI实施差异化配额策略:
Pro会员:每月125次标准版+125次轻量版(总计250次)
Plus/团队版:每月10次标准版+15次轻量版(25次)
免费用户:仅限5次轻量版访问
系统采用动态切换机制,当用户标准版额度耗尽后自动降级至轻量版,所有额度每30天周期性重置。若双版本均无余量,需等待次月恢复。
用户分层运营逻辑
"这是我们在规模化与体验保障间的平衡点。"OpenAI产品总监Lilian Weng在声明中强调。数据显示,标准版用户日均使用时长比轻量版高出2.3倍,但后者仍能满足78%的基础研究需求。通过将核心功能拆分为"高性能层"与"普惠层",OpenAI既可维持高端用户的付费黏性,又为免费用户构筑使用门槛。
行业影响与技术争议
此举引发业界对AI服务分级的讨论。支持者认为,o4-mini的能效比突破(较初代o1模型节省60%算力)为行业提供了可持续扩展方案;批评者则指出,准确率16分的悬殊差距可能加剧"AI鸿沟"。值得注意的是,轻量版仍保留代码解析、多源比对等专业功能,与免费搜索工具形成代际差。
目前,该功能已集成至网页端与API端,开发者可通过调整temperature参数调节响应深度。随着o4系列模型全面铺开,OpenAI或将在教育、法律等垂直领域复制此分层模式,推动生成式AI从实验室走向工业化应用。
领取专属 10元无门槛券
私享最新 技术干货