首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌:我们的Gemma 3,单GPU便能媲美Deepseek

谷歌表示,我们已经找到了在性能与效率之间的理想平衡点。

站长之家(ChinaZ.com) 3月13日 消息:在AI领域,“经济效益”一直是热门话题,在 DeepSeek 实现了令人瞠目的规模经济效益之后,谷歌也不甘落后地加紧了步伐。周三(当地时间),谷歌发布了他们最新的开源大型语言模型 Gemma 3。谷歌方面宣传,这款模型只需要用等同于对手一小部分的计算能力,就能达到媲美 Deepseek R1 模型的准确率。

谷歌引用了“埃洛(Elo)等级分系统”,称 Gemma 3 的评分达到了 Deepseek R1 评分的 98%  —— Gemma 3 为 1338 分,而 Deepseek R1 为 1363 分。

这意味着 R1 模型仍优于 Gemma 3。然而,据谷歌估计,要达到 R1 模型的评分,需要 32 块英伟达(Nvidia)的主流 “H100” GPU 芯片,而 Gemma 3 仅需使用一块 H100 GPU 芯片。

谷歌称,Gemma 3 的计算能力与Elo评分之间的平衡达到了一个 “理想状态”。

谷歌在一篇博文中,将 Gemma 3 宣传为  —— “你能在单张 GPU 或 TPU(张量处理单元)上运行的最强大的模型”,TPU 指的是该谷歌专为应用定制的集成电路芯片。

该博文在提及Elo评分时写道:“就其规模而言, Gemma 3 实现了最先进的性能,在 LMArena 排行榜(知名AI榜单)的初步人类偏好评估中,其表现超过了 Llama-405B、DeepSeek-V3、以及 o3-mini。”

谷歌的 Gemma 3 模型在Elo评分上也超过了 Meta 公司的 Llama 3 模型。据谷歌估计,运行 Llama 3 需要 16 块 GPU 芯片。

需要注意的是,竞争对手使用的 H100 芯片数量都是谷歌的估计,Deepseek 仅披露了一个使用 1814 块英伟达性能稍弱的 H800 GPU 芯片来作为 R1 模型提供服务的例子。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OZVGA4BjgPJOqukOA1qYR_YQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券