首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

国产加速度!突破“内存墙”瓶颈,走向更高性能计算!

在AI芯片的争夺中,算力首先成为了焦点。不过,算力提升之后,算力与内存的不匹配又成为了阻碍AI向前发展的关键。内存问题分为两个部分:带宽、功耗。一旦没有进行存储优化,那么芯片实际能够提供的计算力其实会大大低于理论值。

AI芯片的真正问题是内存墙

算力、算法、数据被认为是AI向前发展的三个关键因素,更高的算力自然必不可少,这也直接驱动了AI芯片公司们推出更高算力的AI芯片。不过,目前对于AI芯片的定义并没有一个严格和公认的标准,一个非常宽泛的看法是,面向人工智能应用的芯片都可以称为AI芯片。

需要指出,这一轮的AI热潮很大程度是机器学习尤其是深度学习受到了追捧。由于目前常见的芯片类型CPU、GPU、FPGA、ASIC都可以运行深度学习算法,因此这些芯片都可以称为AI芯片。

这就意味着,如今AI芯片重要的意义在于满足机器学习的算法的需求。但即便是经验丰富的Arm,认识到AI芯片关键的问题也走了一些弯路。说的更直白一些,深度学习算法具有高并发、高耦合的特点,不仅有大量的数据参与到整个算法运行的过程中,这些数据之间的耦合性也非常紧密。

因此对存储带宽提出了非常高的要求,大规模的数据交换,尤其是芯片与外部DDR(Double Data Rate SDRAM,双倍速率同步动态随机存储器,常简称为DDR)存储之间的数据交换,这将大幅增加了功耗。

突破内存墙瓶颈

越来越多的AI芯片的IP提供方和AI芯片的设计公司都意识到,AI芯片的本质不是要解决计算问题,而是要解决数据问题。与数据和存储相关的带宽瓶颈、功耗瓶颈问题,被称为存储墙问题。

据了解,芯动科技作为国内IP市场连续10年领先的中国芯片IP和芯片定制的一站式领军企业,2018年,芯动科技(INNOSILICON)在全球范围内率先攻克顶级难度的GDDR6高带宽数据瓶颈,并量产性能领先的加密计算GPU;率先掌握0.35V以下近阈值电压低功耗计算技术;提供市场上最快的AI存储加速芯片,使SOC数据的存储带宽增加四倍以上,支持高性能国产CPU/GPU/NPU等各种HPC应用场景。

与此同时,芯动科技推出的DDR系列内存产品也始终处于行业前沿,涵盖高性能产品GDDR6(16GT/s, 1.35V)、主流产品DDR5(6.4GT/s, 1.1V)、低功耗产品LPDDR5(6.4GT/s, 0.5V)等。

不过,人们对更高性能计算的追求是没有止境的,在多核处理器性能越来越强的情况下,人们必须突破“内存墙”的重重阻碍,找到走向更高性能计算的通途。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200924A07IUG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券