首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【盘中宝】该产品需求迎来爆发,高端AI服务器搭载已成为业内主流,2023年全球需求量或增长近六成,这家公司已向客户销售这类产品

财联社资讯获悉,三星计划在今年下半年推出第五代HBM芯片HBM3P,在明年将目前的HBM产能提高一倍以上,并提供先进封装服务。

一、AI服务器对芯片高性能、高稳定性需求提升,HBM应运而生

HBM(High Bandwidth Memory),意为高带宽存储器,是一种面向需要极高吞吐量的数据密集型应用程序的DRAM,它的作用类似于数据的“中转站”,就是将使用的每一帧,每一幅图像等图像数据保存到帧缓存区中,等待GPU调用。

它采用3D堆叠技术,将DRAM裸片像摩天大楼一样垂直堆叠,并通过硅通孔(ThroughSiliconVia,简称“TSV”)技术将“每层楼”连接在一起,贯通所有芯片层的柱状通道传输信号、指令、电流,以增加吞吐量并克服单一封装内带宽的限制。

因此,相比传统内存技术,HBM具有更高带宽、更多I/O数量、更低功耗恶化更小尺寸、此外,HBM朝着不断提高存储容量、带宽、减小功耗和封装尺寸方向升级,目前已升级到HBM3。

二、HBM迎来爆发,2023年全球HBM需求量或将同比增长58%

据业内消息人士透露,三星电子准备向AMD提供HBM芯片和交钥匙封装服务。三星第四代HBM芯片型号HBM3和封装服务最近通过了AMD的质量测试,AMD计划将这些芯片和服务用于其InstinctMI300X加速器。

日前,SK海力士宣布,公司开发出面向AI的超高性能DRAM新产品HBM3E,并开始向客户提供样品进行性能验证。据介绍,SK海力士将从明年上半年开始投入HBM3E量产。此次产品在速度方面,最高每秒可以处理1.15TB(太字节)的数据,其相当于在1秒内可处理230部全高清级电影。

进入2023年以来,受益Chatgpt引领的AIGC(生成式AI)热潮,HBM需求迎来爆发。据Trendforce研究显示,目前高端AI服务器GPU搭载HBM已成为业内主流,预计2023年全球HBM需求量将同比增长58%,达2.9亿GB,预计2024年将同比增长30%。

三、相关上市公司:香农芯创、国芯科技、华海诚科

香农芯创作为SK海力士分销商之一具有HBM代理资质,2022年公司已向客户销售海力士HBM存储产品。

国芯科技目前正在与合作伙伴一起流片验证相关chiplet芯片高性能互联IP技术,和上下游合作厂家积极开展包括HBM技术在内的高端芯片设计和封装技术研究,前期目标主要用于客户定制服务产品中。

华海诚科的颗粒状环氧塑封料(GMC)可以用于HBM的封装,相关产品已通过客户验证。

近期热门系列:

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OqyimeDSBQojHoc3kBP3DBPw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券