首页
学习
活动
专区
圈层
工具
发布

AI大模型推动存储需求爆发

据闪德资讯获悉,AI大语言模型的推理应用全面扩张,全球存储器市场正进入前所未有的爆发阶段。

报告显示,以OpenAI的GPT-5模型为例,推理过程对HBM、DRAM和NAND产生的需求,将足以推动一波存储器超级周期。

AI应用正从训练阶段向推理阶段转变,改变了存储器的使用结构。

AI服务器通常采用三层存储器架构,HBM直接集成在GPU封装内部,主要负责实时高速的数据交换。

DRAM承担模型加载、临时存储及缓存扩展的任务。

NAND Flash主要用于模型权重加载、键值(KV)缓存溢出处理及检索式生成查询。

报告强调,AI推理过程中,对存储器的高带宽和大容量形成了双重压力。

按照全球用户每秒共生成2400万个tokens计算,仅GPT-5的需求,就相当于全球DRAM供应量25%、NAND供应量22%。

若2026年tokens生成量进一步翻倍,需求占比将分别提升至43%和39%,意味着AI推理产生的流量,足以消化全球存储器的新增产能。

受推理大模型推动,存储器需求年增长率超过100%,市场会出现明显的供需缺口。

闪德资讯,一个聚焦关注存储产业供应链和趋势变化的垂直媒体。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O6R9yYoweWnyIl7I1pusSUbA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。
领券