首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

揭秘未来AI:存算一体芯片如何颠覆英伟达的霸主地位?

在当今的技术发展中,人工智能(AI)的迅猛进步已成为不可阻挡的趋势。特别是在计算架构方面,人们正不断探索更高效、更接近生物大脑工作方式的解决方案。人脑的神经元不仅存储信息,还进行计算,这种存算一体的特性使得大脑能够以极低的功耗完成复杂的任务。相比之下,现有的计算机架构,尤其是英伟达所采用的冯诺依曼架构,仍然依赖于分离的存储和计算单元,导致了大量的能量浪费。

据统计,人脑大约有860亿个神经元,但其计算功耗仅为15瓦左右。这一数字令人震惊,因为它揭示了人脑效率的极致。然而,现代的AI模型,如800亿参数的Transformer,在英伟达的GPU上运行时,功耗却高达几千瓦。这种能耗差异的背后,是冯诺依曼架构中数据需要在处理器和内存之间频繁移动的现实。每一次运算,模型参数都需要从高带宽的HBM3内存搬到矩阵乘法器进行计算,然后再搬回内存,这一过程消耗了大量的能量。

如果大脑是基于冯诺依曼架构设计的,那么每次思考都需要将所有知识和记忆从一个部分搬到另一个部分,这样的反复搬运将导致大脑无法承受的能耗。这种比喻生动地说明了现有计算架构的局限性,同时也突显了存算一体架构的潜力。

在探索新的计算架构方面,存算一体(in-Memory Computation,IMC)被认为是未来的趋势。这种架构试图模仿大脑的工作方式,将存储和计算集成在同一单元中,从而减少数据移动,提高能效。存算一体的架构最终将取代冯诺依曼架构,因为它更接近于生物大脑的工作机制。

然而,实现存算一体架构的道路并非一帆风顺。全球做存储的公司不到10家,且都形成了深厚的专利保护和IDM生产体系。这使得创业公司很难进入这一领域,创新变得异常艰难。尽管如此,国内外已有数十家公司在探索存算一体技术,这表明行业对于变革的需求和探索从未停止。

此外,未来的AI模型可能会采用较小的参数,结合超长上下文(context)来实现更高效的推理。这种模型将不再依赖于庞大的参数集,而是利用长上下文来存储和处理信息。这样的变化可能会使得端侧设备,而非云端服务器,成为AI计算的主要场所,因为端侧设备能够更好地保护用户隐私。

尽管英伟达目前的市值和计算能力使其成为行业的领导者,但如果英伟达不采取行动,比如收购存储公司来推动存算一体架构的发展,那么它可能会在未来的技术变革中落后。即使是行业巨头也需要不断创新,以适应技术发展的新趋势。

人工智能的未来将可能由存算一体架构所定义。这种架构不仅能够提高计算效率,降低能耗,还可能改变AI模型的设计和运行方式。尽管面临诸多挑战,但这一领域的探索和创新仍在继续,预示着一个更加高效、智能的计算时代的到来。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OMzIbmpF7MQ9a4rbYihwMN4Q0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券