订阅

阅读量:

SK海力士和美光宣布HBM产能售罄,2024年迎扩产关键时刻

2024年2月29日
  • 编辑:Ana Hu
  • 中国出海半导体网

 

高性能内存技术HBM(High Bandwidth Memory)成为人工智能、数据中心和高性能计算领域的不可或缺的组成部分。自2023年初以来,生成式AI市场经历爆炸性增长,大型模型参数和预训练数据规模不断攀升,将存储能力视为提升AI芯片性能的核心瓶颈。这一趋势推动了AI服务器对高带宽、大容量HBM的需求急剧增加。

在此热潮中,SK海力士和美光等主要制造商日前宣布,2024年的HBM产能已经完全售罄。

据SK海力士副总裁Kim Ki-tae透露,截至2024年初,公司旗下的HBM产能已全部被预订。此前,美光在业绩会议中也透露,受益于生成式AI需求的增长,公司预计2024年的HBM产能同样已经全部售罄。

预计2024年将成为HBM扩产的关键一年,HBM及先进封装材料的需求有望持续增长,为整个产业链带来重要机遇。

目前,全球主要的HBM厂商包括SK海力士、三星电子和美光。根据TrendForce的数据,这三家在HBM市场的份额分别为50%、40%和10%,几乎瓜分了整个市场。但需求的增长将推动HBM产能扩能,也将促使整个产业链升级,能否抓住机遇,迎难而上,是目前整个产业需要思考的。

图1:HBM产业链示意图

图1:HBM产业链示意图

 

HBM内存技术的卓越特性使其成为人工智能、数据中心和高性能计算等领域的首选:

  • 高带宽:HBM技术通过多个DRAM芯片的堆叠和垂直互连技术实现了极高的带宽,满足对数据处理速度的高要求。
  • 低能耗:相较于传统的DRAM,HBM技术在提供高带宽的同时保持较低的能耗,对于数据中心和高性能计算领域尤为关键,能耗是运营成本的重要因素。
  • 高密度:HBM技术能够在较小的空间内提供更大的内存容量,有助于减少系统的体积和成本。
  • 适应性强:HBM内存兼容多种处理器,如CPU、GPU等,为系统设计提供更大的灵活性。
  • 性能提升:HBM内存技术在人工智能领域,特别是深度学习等应用中,通过其高带宽和低能耗特性显著提高模型训练和推理的速度,从而提升整体性能。

总之,2024年,HBM产业正面临着巨大的机遇,预计扩产将满足市场需求,为科技领域带来更强大的支持。