首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI芯片新竞争,存储成焦点

AI芯片历经了一年多的热潮,现在市场对于AI模型和芯片算力之间的关联有更多的理解,,有两个新市场被视为是云端生成式AI的关键瓶颈,近期正吸引更多厂商加速开发新产品并推进到市场,其一是HBM,其二则是高速传输技术。

这两项技术被视为是让AI芯片及云端运算系统达到更高运作效率的关键,值得注意的是即将开展的2024年国际半导体展(SEMICON 2024)各类论坛的讲者当中,不像往年都是NVIDIA、AMD等运算芯片大厂挂帅,2024年探讨的话题更多围绕在存储器和高速传输技术上,可以看出业界关注的焦点愈来愈多元化。

HBM的重要性对于云端AI的讨论来说不算陌生,多数人都知道大型语言模型的AI运算,最缺的其实不是算力,而是存储器的容量。

存储器不足,GPU或AI加速芯片的算力再强,也没办法在模型训练的过程中发挥出最强效能。

三星电子、SK海力士和美光都急忙调配产能,加速量产HBM来满足市场需求,可是存储器并不是唯一提升算力效率的关键技术,各种高速传输介面的升级,最近也掀起讨论与重视。

云端AI的高速传输技术有非常多不同层次,小芯片(chiplet)之间的连接、GPU之间的连接或者是机柜之间的连接,如果传输速度不够快,就无法让众多算力单位有效地集结在一起,达到规模效应和更高的运算效率。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/ONs665duWSHfjsxw2R2WHOIA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券