首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >HBF即将崛起,与HBM并行发展

HBF即将崛起,与HBM并行发展

作者头像
芯智讯
发布2026-03-20 15:04:22
发布2026-03-20 15:04:22
1200
举报

9月11日消息,据韩国媒体Thelec报导,韩国科学技术院(KAIST)电机工程系教授 Kim Joung-ho(在韩国媒体中被誉为“HBM 之父”)表示,高带宽闪存(High Bandwidth Flash,HBF)有望成为下一代 AI 时代的重要存储技术,将与高带宽内存(HBM)并行发展,共同推动芯片大厂的业绩成长。

HBF 的设计概念与 HBM 相似,均通过硅通孔(TSV)技术将多层芯片堆叠连接。 差别在于HBM以DRAM为核心,而HBF则采用NAND Flash闪存进行堆栈,具备“容量更大、成本更具优势”的特点。

Kim Joung-ho指出,虽然NAND Flash的速度不及DRAM,但容量往往高出10倍以上,若以数百层乃至数千层堆叠方式构建,将能有效满足AI模型对庞大储存的需求,可望成为NAND Flash版本的HBM。

目前生成式 AI 模型正急速扩张,单一模型的输入 Token 已达百万级别,需要处理TB 级数据。 在每秒数千次的读写过程中,若存储带宽不足,就会出现瓶颈,导致 ChatGPT、Google Gemini 等大型语言模型(LLM)的反应速度明显下降。

Kim Joung-ho 强调,这种限制来自现行的冯诺依曼架构,由于 GPU 与内存是分离设计,数据传输带宽决定了效能上限,“即便将 GPU 规模扩大一倍,如果带宽不足也毫无意义”。

他预测,未来GPU将同时搭载HBM与HBF,形成互补架构:HBM做为高速快取,负责即时运算数据,而HBF则承担大容量储存,直接存放完整的AI模型。 这将有助于突破存储瓶颈,使 GPU 能处理更庞大的生成式 AI,甚至涵盖长篇视频等复杂内容。 Kim Joung-ho 表示:“未来 AI 将不仅限于文字与图像,而能生成如电影般的长片,届时所需的内存容量将是现有的 1,000 倍以上。”

Sandisk 的 HBF 内存概念
Sandisk 的 HBF 内存概念

之前也有消息显示,存储芯片大厂Sandisk正在联手SK海力士开发用于 AI 系统的HBF规范。HBF能够以与DRAM型HBM相当的成本和带宽,提供高达DRAM型HBM约8到16倍的容量。并且,与需要恒定功率来保存数据的 DRAM 不同,NAND 是非易失性的,因此能够以更低的能耗实现持久存储。

Sandisk 的目标是在 2026 年下半年交付其 HBF 闪存的第一批样品,首款集成该技术的 AI 推理硬件预计将于 2027 年初推出。

编辑:芯智讯-林子

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-09-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 芯智讯 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档