美光2024年和2025年大部分的HBM3E供应已经售罄
作为首家出货HBM3E内存的公司,美光透露,其先进的高带宽内存(2024年)已经全部售罄,而2025年的大部分产量也已分配完毕。美光的HBM3E内存(或美光的另一种叫法,HBM3Gen2)是首批获得英伟达最新H200/GH200加速器认证的内存之一,因此这家DRAM制造商似乎将成为这家处于风口上的公司的重要供应商。
美光公司首席执行官SanjayMehrotra在本周财报电话会议的准备发言中表示:"我们2024年的HBM已经售罄,2025年的绝大部分供应也已经分配完毕。我们仍然预计,在2025年的某个时候,HBM位数份额将与我们整体DRAM位数份额相当"。
美光的首款HBM3E产品是一个8-Hi24GB堆栈,具有1024位接口、9.2GT/s数据传输速率和1.2TB/s的总带宽。英伟达用于人工智能和高性能计算的H200加速器将使用6个这样的立方体,提供总计141GB的可访问高带宽内存。
Mehrotra说:"我们有望在2024财年从HBM获得数亿美元的收入,预计从第三财季开始,HBM收入将增加我们的DRAM和整体毛利率。"
该公司还开始为其12-Hi36GB堆栈提供样品,容量提高了50%。这些KGSD将于2025年量产,并将用于下一代人工智能产品。与此同时,英伟达的B100和B200看起来不会使用36GBHBM3E堆栈,至少在初期不会。
人工智能服务器的需求在去年创下了纪录,看来今年也将保持高位。一些分析师认为,英伟达的A100和H100处理器(以及它们的各种衍生产品)在2023年占据了整个人工智能处理器市场高达80%的份额。虽然今年英伟达在推理方面将面临来自AMD、AWS、D-Matrix、英特尔、Tenstorrent和其他公司更激烈的竞争,但英伟达的H200看起来仍将是人工智能训练的首选处理器,尤其是对于Meta和微软这样的大公司来说,它们已经运行着由数十万英伟达加速器组成的舰队。考虑到这一点,成为英伟达H200的HBM3E的主要供应商对美光来说是一件大事,因为它使美光最终能够在HBM市场上占据相当大的份额。
同时,由于HBM堆栈中的每个DRAM器件都有一个较宽的接口,因此在物理尺寸上要大于普通的DDR4或DDR5IC。因此,HBM3E内存的量产将影响美光公司商品DRAM的位数供应。
"HBM产量的增长将限制非HBM产品的供应增长,"Mehrotra说。"从整个行业来看,在相同的技术节点上生产一定数量的位,HBM3E消耗的晶圆供应量大约是DDR5的三倍。"
踩一下[0]
顶一下[0]