CXL(Compute Express Link)的核心技术特性及其支持的内存架构类型:
CXL DRAM 和传统 SSD 的架构对比,强调了它们的连接方式和存储介质的不同:
SSD 架构:
传统 SSD 通过 PCIe 接口与主机相连,依赖于控制器管理数据传输。控制器连接到多个 NAND 闪存模块,用于存储数据。
NAND 闪存的优势在于成本较低、容量较大,但访问速度较慢,适合冷数据存储。
CXL DRAM 模块:
CXL 模块使用 Compute Express Link(CXL)接口,与主机或处理器通信。控制器直接连接到 DRAM 模块,提供高速、低延迟的内存访问。
DRAM 的特点是速度快、延迟低,但成本较高,更适合作为工作负载的热数据存储。
关键区别:
SSD 更注重容量和持久性,适合长期数据存储。
CXL DRAM 更注重性能和速度,适合实时计算和高性能工作负载。
E3.S 接口的内存扩展与SSD盘形态相似。
图片列出了不同技术领导者和用户群体对计算和内存技术的具体需求和观点,尤其是对 CXL 技术的期待和评价:
强调其关注点在于优化现有资源,而非闲置内存问题,说明其计算模型对内存效率的敏感度较低。
IBM/乔治亚理工
认为传统的 DDR 内存解决方案已无法满足现代计算需求,反映出对创新型内存架构的渴望。
AI 供应商
强烈需求大规模、高性能内存以支持 AI 模型训练,同时关注 GPU 高带宽内存(HBM)的快速加载能力,表明 AI 应用对存储性能的依赖。
超大规模云厂商(Hyperscalers)
希望实现多处理单元间的灵活连接和高效数据共享,这反映了在云计算和分布式架构中的应用需求。
PC 原始设备制造商
对 CXL 的评价较为谨慎,认为其在短期内未能显示直接价值,可能更倾向于成本效益和成熟技术。
CXL 营收预测:
CXL 技术对计算系统的长期影响,主要体现在以下几个方面:
分散式内存:打破传统内存紧耦合的模式,通过分布式设计提升资源利用率和灵活性。
网格网络的处理器阵列:实现处理单元间的高效连接,适应异构计算需求,特别是在超大规模数据中心中。
与内存无关的设计:使系统能够支持不同类型的内存,无需依赖特定硬件,提升扩展性。
提高内存带宽和容量通常会导致延迟增加,这在设计中需要权衡。
通过设计规避方案(Design-arounds),如改进数据传输路径或缓存机制,可以部分缓解延迟问题。