首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

火爆全网!AI新星Groq横空出世,真的能碾压英伟达GPU?

火爆AI圈,刷屏互联网!

近期,Groq引发广泛讨论,其大模型每秒能输出750个tokens,比GPT-3.5快18倍,自研LPU推理速度是英伟达GPU的10倍。

速度快得出奇

Groq名字与马斯克的大模型Grok读音类似,成立于2016年,定位为一家人工智能解决方案公司。

Groq爆火主要是因为其处理速度非常快。据媒体报道,该公司的芯片推理速度较英伟达GPU提高10倍,成本只有其1/10。

运行的大模型生成速度接近每秒500 tokens,碾压ChatGPT-3.5大约40 tokens/秒的速度。

极限情况下,Groq的Llama2 7B甚至能实现每秒750 tokens,为GPT-3.5的18倍。

在Groq的创始团队中,有8人来自谷歌早期TPU核心设计团队,但Groq并未选择TPU、GPU、CPU等路线,而是自研了语言处理单元(LPU)。

Groq官网显示,在 Groq LPU推理引擎上运行的Meta AI的Llama 2 70B的性能优于所有其他基于云的推理提供商,吞吐量提高了18倍。

能否取代英伟达?

不过,速度并不是AI发展的唯一决定性因素。在Groq爆火的同时,也有一些质疑声音。

首先,Groq似乎只是看起来了便宜。Groq的一张LPU卡仅有230MB的内存,售价为2万多美元。

有网友分析,英伟达H100的成本效益应为Groq的11倍。

更为关键的是,Groq LPU完全不配备高带宽存储器(HBM),而是仅配备了一小块的超高速静态随机存取存储器(SRAM),这种SRAM的速度比HBM3快20倍。

这也意味着,与英伟达的H200相比,在运行单个AI模型时需要配置更多的Groq LPU。

另据Groq员工透露,Groq的LLM在数百个芯片上运行。

对此,腾讯科技的芯片专家姚金鑫认为,Groq的芯片目前并不能取代英伟达。

他认为,速度是Groq的双刃剑。Groq的架构建立在小内存、大算力上,因此有限的被处理的内容对应着极高的算力,导致其速度非常快。

另一方面,Groq极高的速度是建立在很有限的单卡吞吐能力上的,要保证和H100同样吞吐量,就需要更多的卡。

他分析,对于Groq这种架构来讲,也有其尽显长处的应用场景,对许多需要频繁数据搬运的场景来说再好不过。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O97mC1Cfml_Wf4FCUJYovYFw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券