首页 > 全部资讯 > 行业新闻 > Rambus推出用于AI GPU的HBM4内存
芯达茂广告F 芯达茂广告F

Rambus推出用于AI GPU的HBM4内存

尽管HBM4的最终规范尚未敲定,但随着人工智能对高性能AI GPU的需求愈加迫切,行业迫切需要尽快推出更先进的内存技术。近期有报道称,Rambus推出了最新的HBM4内存控制器,其性能据称超过了目前公布的HBM4技术规格。

相比于HBM3,HBM4 的每个堆栈通道数增加了一倍,从 HBM3 的 1024 位增加到 2048 位,这使得数据传输速度和性能都有了显著提升。Rambus 推出的 HBM4 内存控制器 IP 支持高达 10 Gbps 的数据传输速率,为每个内存设备提供 2.56 TB/s 的吞吐量,这是 HBM3 所不能比拟的。此外,HBM4 的开发涉及到了更先进的工艺技术,如三星和 SK 海力士都在推进 1c 制程的 DRAM,这将带来更高的密度和能效改进,对提升 HBM4 内存的性能和降低功耗具有重要意义。HBM4 技术的发展也涉及到了与逻辑芯片的集成,例如 SK 海力士与台积电合作开发下一代 HBM,利用台积电的先进逻辑工艺来提升 HBM4 产品的性能 。

Rambus的HBM4控制器不仅支持JEDEC标准规定的6.4 GT/s数据传输速率,还具备未来提升至10 GT/s的潜力。这样,每个HBM4堆栈的内存带宽可以达到2.56 TB/s,采用2048位宽的内存接口。Rambus的HBM4控制器IP可与第三方或客户自有的PHY解决方案搭配,构建完整的HBM4内存系统。此外,Rambus还与Cadence、三星和西门子等行业巨头展开合作,确保这一技术能够顺利融入现有的内存生态系统,加速向下一代内存系统的过渡。

图:Rambus推出用于AI GPU的HBM4内存

根据JEDEC HBM4初步规范,HBM4内存将支持4高、8高、12高和16高堆栈配置,并可采用24 Gb和32 Gb的内存层。16高堆栈的32 Gb内存层将提供64 GB的容量,四个此类堆栈组成的系统总内存容量可达256 GB,通过8192位接口实现6.56 TB/s的峰值带宽,大幅提升复杂工作负载的处理能力。

如果HBM4内存子系统能够以10 GT/s的速度运行,四个堆栈将提供超过10 TB/s的带宽。然而,Rambus和其他内存制造商通常会支持更高于JEDEC标准的增强传输速度,以确保在标准速率下系统运行的稳定性和能效。

Rambus高级副总裁兼硅IP总经理Neeraj Paliwal表示:“如今大型语言模型(LLM)的参数已突破一万亿,且规模持续扩大,解决内存带宽和容量的瓶颈对满足AI训练和推理的实时性能要求至关重要。作为AI 2.0时代的领先硅IP供应商,我们率先推出业界首款HBM4控制器IP解决方案,助力客户在其最先进的处理器和加速器中实现性能飞跃。”

值得注意的是,HBM4每个堆栈的通道数量是HBM3的两倍,接口宽度达到2048位,因此需要占用更大的物理空间。此外,HBM4的中介层设计也与HBM3/HBM3E存在差异,这对其数据传输速率的潜力产生了影响。

相关新闻推荐

登录

注册

登录
{{codeText}}
登录
{{codeText}}
提交
关 闭
订阅
对比栏
对比 清空对比栏