近日,集邦咨询发布的报告指出,2024年,HBM(High Bandwidth Memory)内存市场的主流规格将是HBM3。然而,英伟达即将推出的B100或H200加速卡将采用HBM3e规格,为市场带来新的变革。
HBM生产周期限制
据消息透露,当前AI加速卡除了CoWoS封装瓶颈之外,另一个重要限制就是HBM。主要原因在于HBM的生产周期比DDR5更长,从投片到产出、封装完成需要至少2个季度的时间。
英伟达的挑战与突破
英伟达目前主流的H100加速卡采用HBM3内存,但主要供应商SK海力士无法满足整体AI市场的需求。然而,2023年年末,三星以1Znm产品加入英伟达的供应链,虽然比重较小,但对于HBM领域来说是一次重大突破。
三星的策略调整
作为AMD长期以来最重要的策略供应伙伴,三星于2024年第一季开始陆续通过AMD MI300系列验证其HBM3产品,包括8h与12h产品。因此,自2024年第一季以后,三星的HBM3产品将逐渐放量。
市场关注焦点转向HBM3e
自2024年起,市场的关注焦点将由HBM3转向HBM3e,预计下半年将逐渐成为HBM市场的主流。根据TrendForce集邦咨询的调查,SK海力士率先通过验证,美光紧随其后,并于第一季底开始递交HBM3e量产产品,以满足计划在第二季末铺货的NVIDIA H200。
三星的时程规划
三星递交样品的时程略晚于其他两家供应商,但预计其HBM3e将于第一季末前通过验证,并于第二季开始正式出货,为市场带来更多的选择和竞争力。
英伟达即将推出的HBM3e加速卡有望成为AI市场的新风向标。随着HBM3e的逐渐普及和市场化,将为AI行业带来更多的创新和发展机遇,也将加速AI技术在各个领域的应用和落地。