首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

HBM技术进化史:从HBM到HBM3e,性能逆袭,见证飞跃

HBM、HBM2、HBM3和HBM3e技术对比

HBM 高带宽存储突破性地堆叠 DRAM Die,实现小体积、高带宽和高速传输。采用 TSV 技术,将多层 Die 连接至逻辑 Die,提供高达 800GB/s 的带宽,满足高性能 AI 服务器 GPU 需求。

SK海力士发布HBM3E,提供8Gbps传输速度和16GB内存,将于2024年量产。HBM3E是HBM3的扩展版本,为高性能计算和人工智能应用提供突破性性能。

HBM(高速宽带存储器)以人工智能(AI)服务器为主要应用场景。最新一代HBM3e已搭载于英伟达2023年推出的H200中。根据Trendforce数据,2022年AI服务器出货86万台,预计到2026年将突破200万台,年复合增长率达29%。

AI服务器激增带动HBM需求飙升,平均容量提升。预计25年市场规模达150亿美元,增长超50%,潜力巨大。

HBM供应市场由SK海力士(53%)、三星(38%)和美光(9%)三大存储巨头主导。关键工艺技术包括CoWoS和TSV,推动着HBM在性能和成本方面的持续优化。

2014年推出的HBM1由AMD与SK海力士联合研发。作为GDDR竞品,其独特架构提供128GB/s带宽和4GB内存,远超当时的GDDR5。

高速宽带内存技术的演进

自2016年以来,HBM(高带宽内存)技术不断革新:

* HBM2 (2018): 8层DRAM,提供256GB/s带宽,2.4Gbps传输速度,8GB内存。

* HBM2E (2020): 传输速度提升至3.6Gbps,内存增加至16GB。

* HBM3 (2022): 堆叠层数和管理通道增加,传输速度最高可达819GB/s,16GB内存。

* HBM3E (2024, 预计): 传输速度高达8Gbps,容量增至24GB。

HBM技术以其令人瞩目的带宽和容量,为高性能计算、人工智能和图形应用提供了强劲动力。

HBM,以其高带宽、低功耗、小体积的优势,成为 AI 服务器场景的不二之选。从 2016 年搭载 HBM2 的 NVP100 GPU 首次落地,到 2023 年英伟达发布的 H200 中配备 HBM3e,HBM 始终处于服务器技术的最前沿。

历经 HBM2、HBM2e 到 HBM3,每一代 HBM 都带来大幅性能提升和容量增加。最新 HBM3e 为服务器提供更快的速度和更大的容量,满足 AI 服务器快速发展的需求。

HBM市场由三大巨头主导:SK海力士(50%市占率)、三星(40%市占率)和美光(10%市占率)。SK海力士领跑,率先供应HBM3E,奠定市场地位。2023年,SK海力士预计市占率将升至53%,进一步扩大优势。三星主要供应云端厂商,市占率将降至38%。美光市占率预计为9%。

HBM在封装工艺上的变化主要在CoWoS和TSV。

CoWoS:芯片封装创新

CoWoS 是一种先进的芯片封装技术,将 DRAM Die 与底层基板整合到硅中介层上。它通过 ChiponWafer (CoW) 制程实现更短的互连长度,从而提高数据传输速度。

CoWoS 目前是高性能计算 (HPC) 芯片中 HBM 和 GPU 集成的首选解决方案。它已应用于 NVIDIA A100 和 GH200 等算力芯片,凭借其卓越的性能和可靠性,在 HPC 领域发挥着至关重要的作用。

TSV硅通孔是HBM的关键技术,通过垂直互连连接多层DRAM管芯,实现容量和带宽提升。TSV在硅晶圆厚度上打孔,形成正面和背面之间的通道,使所有管芯能够相互连接和向外连接,有效提高HBM的性能和效率。

-对此,您有什么看法见解?-

-欢迎在评论区留言探讨和分享。-

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OjFanqomPCarfDSiJIysPWeg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券