首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

中国“芯”为智能时代赋能,高速DDR存储器突破“内存墙”

AI、5G、自动驾驶、大数据、海量存储,数字革命带来的智能时代已经到来,精彩纷呈的智能化、数字化技术连接无限可能的未来。

AI亟需高能效计算和高带宽数据技术

这是一个信息爆炸的大数据时代,对超高速、高带宽、大容量、高密度、低功耗和低成本的超高性能计算需求呈爆发式增长,而人工智能的出现更加速了这种趋势,因为它需要大量的数据进行训练。

面对滚滚而来的数据洪流,要使通过AIoT设备传输的大量数据变得有用,无论是采用本地处理、实时处理还是云端处理,高效灵活的计算平台、高性能存储和复杂但易于使用的机器学习堆栈,都是大数据/人工智能取得突破性成果的关键,三个元素缺一不可。

(a)AI芯片中的冯·诺依曼“瓶颈”(b)内存层级结构

众所周知,算法(Algorithm)、数据(Big data)和计算能力(Computing)并称为新AI时代三大驱动力,AI在追求更好性能的同时要实现低功耗、低延迟和低成本,这就亟需高能效计算和高带宽数据技术。

高带宽高能效成为高性能计算核心瓶颈

在传统计算设备广泛采用的冯·诺依曼架构中,计算和存储功能不但是分离的,而且更侧重于计算。一方面,处理器和存储器分离的体系架构,使得数据需要在处理器和存储器之间不停的来回传输,消耗了约80%的时间和功耗。另一方面,处理器和存储器二者之间长期以来所采用的不同工艺路线,也是造成计算和存储分离,继而产生“存储墙”和“功耗墙”问题的重要原因之一。

传统的冯·诺依曼计算架构

但现实应用中,用户对处理器的高性能需求是无止境的,这使得半导体厂商不断通过提高晶体管内部的开关速度、使用更多的金属布线层和先进封装技术等手段来提升性能;而与此同时,对于存储器来说,消费者和厂商更在意的是如何在更小的存储单元面积上获得更多的晶体管数量,用以增加存储密度,扩大存储容量。据相关数据现实,1980-2000年处理器和存储器两者的速度失配以每年50%的速率在增加。

1980-2000年,处理器和存储器两者的速度失配以每年50%的速率增加

与此同时,数据迁移需要的功耗在整个计算中的占比也在“水涨船高”。有研究显示,7nm工艺时代,访存功耗达到25pJ/bit(45.5%),通信功耗达到10pJ/bit(18.2%),数据传输和访问功耗占比达到了63.7%。所以说,高带宽高能效成为高性能计算核心瓶颈,在这一克服过程中,计算单元优化定制、GDDR6/LPDDR4,HBM, Serdes高带宽存储技术将扮演重要角色。

突破“内存墙”:高速DDRn存储器接口技术趋势

基于数据和视频的并行计算需求正在急剧增大,对系统内存的带宽带来了更大的渴求,也给产业界提出了更多挑战:尽可能实现近数据存储计算(Near Memory Compute),或者是最好能够将存储和计算有机地结合在一起(存储器颗粒本身的算法嵌入),直接利用存储单元进行计算,最大程度的消除数据迁移所带来的功耗开销。

作为国内IP市场连续10年领先的中国芯片IP和芯片定制的一站式领军企业,2018年,芯动科技(INNOSILICON)在全球范围内率先攻克顶级难度的GDDR6高带宽数据瓶颈,并量产性能领先的加密计算GPU;率先掌握0.35V以下近阈值电压低功耗计算技术;提供市场上最快的AI存储加速芯片,使SOC数据的存储带宽增加四倍以上,支持高性能国产CPU/GPU/NPU等各种HPC应用场景。

与此同时,芯动科技推出的DDR系列内存产品也始终处于行业前沿,涵盖高性能产品GDDR6(16GT/s, 1.35V)、主流产品DDR5(6.4GT/s, 1.1V)、低功耗产品LPDDR5(6.4GT/s, 0.5V)等。

突破“内存墙”:高速DDRn存储器接口技术趋势

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200713A0N1BO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券