CXL是一种新型接口,旨在提升计算系统中CPU、内存、GPU和存储器等资源的利用效率。传统架构中,各类设备如内存和存储器通常通过独立的接口与CPU连接,因此,当这些设备之间需要通信时,必须经过多个接口的中转,这往往会引发延迟问题。随着AI和机器学习等领域的数据处理需求急剧增加,这种延迟现象变得更加突出。而CXL则通过简化设备间的通信路径,有效缓解了这一问题。
三星近几年一直致力于对CXL内存模块的研发,早在2022年就推出了业界首款基于CXL的512GB CXL DRAM。三星内存部门新业务规划团队负责人Choi Jang Seok在近期举行的活动上,明确表示三星计划今年年底之前生产支持CXL 2.0的256GB CXL DRAM,称CXL市场预计下半年开始进入蓬勃发展阶段,到2028年将呈现爆炸性增长。
CXL(Compute Express Link)内存技术因其在提高内存性能、扩展内存容量和降低延迟方面的能力,被看作是AI和高性能计算(HPC)领域的下一个重要技术 。随着AI大模型的快速发展,对内存带宽和存储速度的需求日益增长,而CXL技术通过提供高速缓存一致的内存共享,有助于解决所谓的"内存墙"问题,即处理器与内存之间的速度不匹配问题。
图:CXL内存或将成为下一个AI 宠儿
CXL技术通过实现内存扩展和分解,允许CPU、GPU、DPU、FPGA等加速器直接访问共享的内存池,从而提高内存利用效率和系统性能。例如,CXL 3.0版本为各种加速器提供了直接访问内存池的权限,这在AI云服务器和数据库服务器中尤其有益,可以加快分析速度并运行更大的内存数据库 。
江波龙发布的512GB CXL AIC扩展卡进一步证明了CXL技术在提供超大容量内存支持方面的优势。该扩展卡支持CXL1.1和CXL2.0标准,能够为单个服务器或服务器集群提供高带宽、低延迟的扩展内存,这对于AI算力、HPC和数据中心等领域至关重要 。
此外,CXL技术的发展也得到了业界的广泛支持。CXL联盟由英特尔牵头成立,目前成员已超过255个,包括主要的CPU、内存、存储和网络设备制造商。随着CXL技术的不断演进,预计未来数据中心的计算节点和内存节点的互联将变得更加快速、高效和灵活 。
总的来说,CXL内存技术因其在提升内存性能、扩展性和降低延迟方面的能力,有望成为支持AI和高性能计算需求的关键技术。随着CXL技术的不断发展和应用的深入拓展,预计将在高性能计算领域发挥越来越重要的作用,并助力AI模型训练、大数据分析、科学计算等领域实现更高效的运算 。